jueves, 9 de agosto de 2012

Código binario


Hola a todos!
Bien, hoy seguiremos con un aspecto principal de la teoría de la información, el código binario.
El sistema binario, se considera un lenguaje de datos, ya que todos los sistemas electrónicos y electromecánicos lo usan, y suelen tener dos estados, encendido o apagado. Este sistema, está compuesto por dos dígitos, cuya base es dos, es decir, solo se utiliza el 1 y el 0. Por lo tanto el código binario posee una cualidad biestable, encendido o apagado. Esto se representa mediante el 1 y el 0. Con estos dos números se pueden llegar a formar largos mensajes.
Bien, sabiendo esto, podemos empezar con una medición de la información, y ¿Cómo se mide la información, en que unidades? En bits, la unidad básica de la medición de información es el bit. Una propiedad fundamental del código binario es de reducir a la mitad la incertidumbre, pongamos un ejemplo: Tiramos una moneda al aire, si sale cara lo simbolizamos con 1, si sale cruz con 0, por lo tanto, la información sobre cómo ha caído la moneda, la podemos representar con un solo bit de información, ya que al dar que ha caído cara, implícitamente sabemos que no ha salido cruz. Es decir un bit es 1 o 0, “si” o “no”. ¿Ha salido cara? Sí. Eso es un bit de información. Pero por ejemplo, pongamos un caso, en el que hemos tirado un dado, que tiene 8 caras, ¿con cuantos bits de información podríamos definir el lanzamiento? Llamemos a cada cara con una letra A B C D E F G H
A   B   C   D   E   F   G   H     Dividamos esto en dos, a un grupo lo nombraremos con el 1 y a otro
____0____   ____1____    con el 0.
A   B   C   D   E   F   G   H   Bien, dividido en dos bloques, volvamos a dividir estos bloques
_0__  __1_                         pequeños en otros dos bloques.  
A   B   C   D   E   F   G   H   Ahora, estos grupos más pequeños que hemos creado tienen dos
0   1                                     elementos, pues nombremos a cada elemento con un número.
Por lo tanto para nombrar el suceso B, será necesario expresarlo como 001, el A como 000, etc. Es decir utilizamos 3 bits de información para nombrar un suceso. Con estos conocimientos podemos determinar cuántos bits se necesitan para definir una elección entre varias posibles, como es un sistema binario, podemos elegir entre dos opciones “si” o “no”. Por lo tanto:
   2^número de elecciones que tienes que hacer =número de sucesos posibles
El número de elecciones que tienes que hacer es igual al de bits necesarios para enviar un suceso del experimento. Si queremos saber los bits que tenemos que enviar, lógicamente cambiaremos esta ecuación exponencial a un simple logaritmo en base 2:
                  número de sucesos posibles= número de elecciones que tienes que hacer/bits
               Información necesarias para transmitir un suceso.
Por ejemplo pongamos un caso, tenemos 16 sucesos posibles, ¿en cuantos bits de información podemos transmitir un suceso? Bien, pues aplicamos un logaritmo sencillo en base 2.
            log2 16=x     x=4       Es decir son necesarios 4 bits para transmitir un suceso, por ejemplo             0000, para transmitir el primer suceso.
Bueno, en próximas entradas ya explicaré más cosas sobre la teoría de la información, y las elecciones complejas, hasta luego bloggeros! J
P.D: Si algo no se entiende, poner un comentario con vuestro correo y la duda que tenéis y os la soluciono, es que ahora que lo veo parece un pelín confuso XD

No hay comentarios:

Publicar un comentario