Hola a todos!
Bien, hoy seguiremos con un aspecto principal de la teoría
de la información, el código binario.
El sistema binario, se considera un lenguaje de datos, ya
que todos los sistemas electrónicos y electromecánicos lo usan, y suelen tener
dos estados, encendido o apagado. Este sistema, está compuesto por dos dígitos,
cuya base es dos, es decir, solo se utiliza el 1 y el 0. Por lo tanto el código
binario posee una cualidad biestable, encendido o apagado. Esto se representa
mediante el 1 y el 0. Con estos dos números se pueden llegar a formar largos
mensajes.
Bien, sabiendo esto, podemos empezar con una medición de la
información, y ¿Cómo se mide la información, en que unidades? En bits, la
unidad básica de la medición de información es el bit. Una propiedad
fundamental del código binario es de reducir a la mitad la incertidumbre,
pongamos un ejemplo: Tiramos una moneda al aire, si sale cara lo simbolizamos
con 1, si sale cruz con 0, por lo tanto, la información sobre cómo ha caído la moneda,
la podemos representar con un solo bit de información, ya que al dar que ha caído
cara, implícitamente sabemos que no ha salido cruz. Es decir un bit es 1 o 0, “si”
o “no”. ¿Ha salido cara? Sí. Eso es un bit de información. Pero por ejemplo,
pongamos un caso, en el que hemos tirado un dado, que tiene 8 caras, ¿con
cuantos bits de información podríamos definir el lanzamiento? Llamemos a cada
cara con una letra A B C D E F G H
A B C
D E F G H
Dividamos esto en dos, a un grupo lo nombraremos con el 1 y a otro
____0____ ____1____ con el 0.
A B C
D E F G H
Bien, dividido en dos bloques, volvamos a dividir estos bloques
_0__ __1_ pequeños en otros dos
bloques.
A B C
D E F G H
Ahora, estos grupos más pequeños que hemos creado tienen dos
0 1 elementos, pues nombremos a cada elemento
con un número.
Por lo tanto para nombrar el suceso B, será necesario
expresarlo como 001, el A como 000, etc. Es decir utilizamos 3 bits de
información para nombrar un suceso. Con estos conocimientos podemos determinar cuántos
bits se necesitan para definir una elección entre varias posibles, como es un
sistema binario, podemos elegir entre dos opciones “si” o “no”. Por lo tanto:
2^número de elecciones que tienes que hacer =número de sucesos posibles
El número de elecciones que tienes que
hacer es igual al de bits necesarios para enviar un suceso del experimento. Si
queremos saber los bits que tenemos que enviar, lógicamente cambiaremos esta
ecuación exponencial a un simple logaritmo en base 2:
Información necesarias para
transmitir un suceso.
Por ejemplo pongamos un caso, tenemos 16
sucesos posibles, ¿en cuantos bits de información podemos transmitir un suceso?
Bien, pues aplicamos un logaritmo sencillo en base 2.
log2 16=x
x=4 Es decir son necesarios
4 bits para transmitir un suceso, por ejemplo 0000, para transmitir el primer
suceso.
Bueno, en próximas entradas ya explicaré
más cosas sobre la teoría de la información, y las elecciones complejas, hasta
luego bloggeros! J
P.D: Si algo no se entiende, poner un comentario con vuestro correo y la duda que tenéis y os la soluciono, es que ahora que lo veo parece un pelín confuso XD
No hay comentarios:
Publicar un comentario