¿P0DR4S D3C1FR4R 3S73 M3NS4J3?, C0D1F1C4C10N.
-BOCETO -Trazo a mano
-COMPOSICION -Contemplar
-FRAGMENTO ESPACIO -Cámara
Objetivo: Comprender, emplear y aplicar los conceptos de codificación en aplicaciones de empleo cotidiano y su
importancia en.
Desarrollo:
La codificación es un proceso que podemos entender como cualquier operación que implique la
asignación de un valor de símbolos o caracteres a un determinado mensaje verbal o no verbal con la
finalidad de transmitirlo, el cual emplea ciertas reglas en donde es empleado un determinado código.
Es algo tan simple como el platicar a alguien, cierto evento que nos ocurre ya que es en este proceso
cuando transformamos imágenes visuales o auditivas en palabras, oraciones, textos y las comunicamos.
Hay que reconocer que la codificación es una operación compleja que implica el uso de códigos
compartidos, como puede ser un mensaje cifrado por ejemplo cuando se envía un telegrama mediante el
código Morse. En general es una operación que se emplea para enviar datos de un lugar a otro,
procesarlos y obtener resultados a partir de ellos.
En informática, la operación de transmisión de información, están cifradas en código binario, o
combinaciones más o menos complejas de unos y ceros que ocurren constantemente y con lo cual
hablamos de un segundo nivel de codificación, información que precisa de aspectos de seguridad y
confidencialidad y, por supuesto, implica la creación de mensajes cifrados que sólo pueden ser leídos por
cierto tipo de computadoras o por el usuario que los ha creado, como ocurre con las contraseñas y datos
personales en transacciones en línea.

Este tipo de codificación tiene un alto valor de confiabilidad y se utiliza en todo tipo de tareas, en
cuestiones tan simples como crear una cuenta en una red social y tan compleja como realizar operaciones
bancarias y financieras por Internet.
Esto nos puede llevar a una codificación de caracteres, que básicamente, consiste en transformar un
carácter del alfabeto o de otro lenguaje natural en un símbolo perteneciente a otro sistema de
representación.
Dicha codificación permitió crear en 1969 el código ASCII (American Standard Code for Information
Interchange), basado en el alfabeto latino, tal como se usa en inglés moderno. Puede codificar un máximo
de 128 símbolos suficientes para la inclusión de todo el abecedario inglés con sus mayúsculas y
minúsculas, además de los signos de puntuación, los números y ciertos caracteres de control. Como es de
pensarse, esto conlleva a ciertas limitaciones que dieron lugar a la definición de otros sistemas de
codificación de caracteres, entre los que se encuentra el ASCII extendido por lo que en 1991 se acordó a
nivel internacional el uso de la norma denominada Unicode, una tabla de dimensiones considerables, que
hoy en día cuenta con más de cincuenta mil símbolos, cada uno con su propio código, para abarcar un
gran número de formas de escritura, incluyendo los ideogramas usados en chino, coreano y japonés,
además de los caracteres de todos los idiomas del continente europeo.


NOTA: En las computadoras, investigamos sobre el código ASCII y la forma en que puede emplearse en la
computadora