lunes, 3 de septiembre de 2018

¿P0DR4S D3C1FR4R 3S73 M3NS4J3?, C0D1F1C4C10N. 


               -BOCETO                        -Trazo a mano
               -COMPOSICION               -Contemplar
               -FRAGMENTO ESPACIO     -Cámara 


Objetivo:
Comprender, emplear y aplicar los conceptos de codificación en aplicaciones de empleo cotidiano y su importancia en. Desarrollo: La codificación es un proceso que podemos entender como cualquier operación que implique la asignación de un valor de símbolos o caracteres a un determinado mensaje verbal o no verbal con la finalidad de transmitirlo, el cual emplea ciertas reglas en donde es empleado un determinado código. Es algo tan simple como el platicar a alguien, cierto evento que nos ocurre ya que es en este proceso cuando transformamos imágenes visuales o auditivas en palabras, oraciones, textos y las comunicamos. Hay que reconocer que la codificación es una operación compleja que implica el uso de códigos compartidos, como puede ser un mensaje cifrado por ejemplo cuando se envía un telegrama mediante el código Morse. En general es una operación que se emplea para enviar datos de un lugar a otro, procesarlos y obtener resultados a partir de ellos. En informática, la operación de transmisión de información, están cifradas en código binario, o combinaciones más o menos complejas de unos y ceros que ocurren constantemente y con lo cual hablamos de un segundo nivel de codificación, información que precisa de aspectos de seguridad y confidencialidad y, por supuesto, implica la creación de mensajes cifrados que sólo pueden ser leídos por cierto tipo de computadoras o por el usuario que los ha creado, como ocurre con las contraseñas y datos personales en transacciones en línea.
Este tipo de codificación tiene un alto valor de confiabilidad y se utiliza en todo tipo de tareas, en cuestiones tan simples como crear una cuenta en una red social y tan compleja como realizar operaciones bancarias y financieras por Internet.
Esto nos puede llevar a una codificación de caracteres, que básicamente, consiste en transformar un carácter del alfabeto o de otro lenguaje natural en un símbolo perteneciente a otro sistema de representación.
Dicha codificación permitió crear en 1969 el código ASCII (American Standard Code for Information Interchange), basado en el alfabeto latino, tal como se usa en inglés moderno. Puede codificar un máximo de 128 símbolos suficientes para la inclusión de todo el abecedario inglés con sus mayúsculas y minúsculas, además de los signos de puntuación, los números y ciertos caracteres de control. Como es de pensarse, esto conlleva a ciertas limitaciones que dieron lugar a la definición de otros sistemas de codificación de caracteres, entre los que se encuentra el ASCII extendido por lo que en 1991 se acordó a nivel internacional el uso de la norma denominada Unicode, una tabla de dimensiones considerables, que hoy en día cuenta con más de cincuenta mil símbolos, cada uno con su propio código, para abarcar un gran número de formas de escritura, incluyendo los ideogramas usados en chino, coreano y japonés, además de los caracteres de todos los idiomas del continente europeo. 


NOTA: En las computadoras, investigamos sobre el código ASCII y la forma en que puede emplearse en la computadora

No hay comentarios:

Publicar un comentario

Vinculación: Estructuras If Then Else Control Variable Se habla de algo fundamental al hablar de una estructura de control Cua...