Buenos días a todos!
Otra vez estoy de vuelta para comunicaros la creación de un foro http://verdadmym.sitio-web.org/
Este foro, consistirá en una organización, de todos nosotros, gente con ganas de aprender, y de enseñar, dispuestos así a compartir ese preciado conocimiento :)
Como sabréis si habéis leído más en el blog, un punto importante, es que el blog tendrá un carácter anticlerical.
Si queréis entrar antes, mandar un correo a armangute@gmail.com para comunicarle vuestro deseo de entrar, y así poder poneros en contacto conmigo.
Gracias! :)
Matemáticas y más.
En este bog, encontrarás temas relaccionados con la física y matemáticas
jueves, 23 de mayo de 2013
viernes, 21 de diciembre de 2012
Sociedad destrozada.
Buenas noches señores, en primer lugar me debo disculpar, por no escribir en este largo periodo de tiempo que ha pasado desde la última publicación. Y en segundo lugar, esta hermosa noche que da por finalizada esta importante noche del 4 Ahau 3 Kankin en España, y por lo consiguiente, la decimotercera era, os hablaré de la corrupción del pensamiento occidental, y lo que supuso la transmutación de valores de Nietzsche.
Lo primero para poder analizar la corrupción en la sociedad será analizar la palabra sociedad, y de que mejor modo que desarrollando un breve análisis etimológico de dicho vocablo?
Esta palabra, procede del latín "societas" que a su vez deriva de la palabra "socius", la cual significa compañero. Es curioso que en el imperio romano consideraran la sociedad como una especie de compañerismo, cuando ahora es prácticamente una carrera en la cual el que aplasta a más adversarios consigue el éxito y como no, el dinero. Rápidamente podríamos reducir esta sociedad con la palabra "dinero", ya que se puede simplificar todo con el concepto de dinero. Una persona me dijo que el eliminaría la filosofía, ya que eran interpretaciones de la realidad, pero al ser la realidad el dinero, no merece ningún estudio. La gente solamente se mueve actualmente por la búsqueda de dinero, ya que si, desgraciadamente consigue muchas veces la felicidad. Esta es una visión muy cruda y crítica de la realidad; algunos ahora estaréis pensando que no tengo ni idea, que como reducir toda la realidad a contextos puramente utlitaristas, pero no como S.Mill lo propuso, sino como el "cerdo" que el criticó. Pero cada uno puede opinar lo que quiera, yo aquí doy la mía. Otro aspecto que ha tenido bastante relevancia en la corrupción de la sociedad, ha sido la transmutación de valores del nihilismo, esta resumidamente expone: Es querer, no deber. Esto quiere decir que prima el gusto sobre el deber, la idea de superhombre se halla notablemente presente en esta transmutación. Esto ha afectado terriblemente en la sociedad, por ejemplo, pongamos que soy un empresario y gano el doble si no les hago contratos a mis empleados, pero ellos corren riesgos con esto, muchos no les harían contratos, ya que la ambición en resumen, es la corrupción de este sistema.
Gracias por leerlo. Aer
Lo primero para poder analizar la corrupción en la sociedad será analizar la palabra sociedad, y de que mejor modo que desarrollando un breve análisis etimológico de dicho vocablo?
Esta palabra, procede del latín "societas" que a su vez deriva de la palabra "socius", la cual significa compañero. Es curioso que en el imperio romano consideraran la sociedad como una especie de compañerismo, cuando ahora es prácticamente una carrera en la cual el que aplasta a más adversarios consigue el éxito y como no, el dinero. Rápidamente podríamos reducir esta sociedad con la palabra "dinero", ya que se puede simplificar todo con el concepto de dinero. Una persona me dijo que el eliminaría la filosofía, ya que eran interpretaciones de la realidad, pero al ser la realidad el dinero, no merece ningún estudio. La gente solamente se mueve actualmente por la búsqueda de dinero, ya que si, desgraciadamente consigue muchas veces la felicidad. Esta es una visión muy cruda y crítica de la realidad; algunos ahora estaréis pensando que no tengo ni idea, que como reducir toda la realidad a contextos puramente utlitaristas, pero no como S.Mill lo propuso, sino como el "cerdo" que el criticó. Pero cada uno puede opinar lo que quiera, yo aquí doy la mía. Otro aspecto que ha tenido bastante relevancia en la corrupción de la sociedad, ha sido la transmutación de valores del nihilismo, esta resumidamente expone: Es querer, no deber. Esto quiere decir que prima el gusto sobre el deber, la idea de superhombre se halla notablemente presente en esta transmutación. Esto ha afectado terriblemente en la sociedad, por ejemplo, pongamos que soy un empresario y gano el doble si no les hago contratos a mis empleados, pero ellos corren riesgos con esto, muchos no les harían contratos, ya que la ambición en resumen, es la corrupción de este sistema.
Gracias por leerlo. Aer
miércoles, 15 de agosto de 2012
Codificación
Hola a todos! Hoy hablaremos sobre la codificación, los dos
grandes tipos de codificación, y hablaremos un poco más sobre el bit, de
momento sin meternos en muchas complicaciones, recordemos que de momento
estamos dando conceptos básicos.
Bien, existen dos tipos de codificaciones, si hablamos en
términos muy generales. Codificación ascendente y descendente.
Ascendente: Consiste
en transformar un grupo de símbolos (x) a otro grupo de símbolos mayor (x*y),
como ejemplos de este tipo de codificación tenemos el código Baudot, ASCII…, es
decir transformamos un carácter por ejemplo a (que contiene solamente un
símbolo) en un conjunto de símbolos mayor (01100001). Este tipo de
codificación, tiene como gran ventaja disminuir la información que contiene
cada bit, es decir aumentar su entropía.
Descendente: Consiste en transformar un grupo de símbolos
(x) en otro menor (x-y/y<x) Estos
tipos de codificación son muy escasos ya que lo que estamos haciendo es
disminuir la entropía de cada bit.
Codificación reversible; las técnicas de codificación, sean
ascendentes o descendentes, sus mensajes son reversibles: cada símbolo, cada
carácter… está codificado de manera distinta a la de cualquier otro mensaje
dentro del mismo sistema. Por ejemplo, en código morse, la letra V, se
simboliza como ···-, si hubiera otra letra por ejemplo la A que se simbolizara
igual, el sistema ya no sería reversible ya que se tendría que producir una
elección arbitraria entre A o V al interpretar en código ···-. Esto, se llama
colisión, y ya lo veremos más detenidamente cuando explique las funciones hash.
Unidad de información más pequeña; es el bit, al igual que
en física, en conceptos lejanos a la cuántica, y muy simples podríamos
considerar al átomo (a: sin| tomo: divisiones, partes). En los discos o en las
cintas podemos encontrar los bits como partes magnetizadas o no magnetizadas, y
para codificar los caracteres en bits se combinan los bits de acuerdo con
diversos esquemas (codificación)
Hasta aquí por hoy, hasta luego bloggeros! J
domingo, 12 de agosto de 2012
Tipos de bits
Hola a todos!
Hoy explicaré que todos los bits no pueden ser iguales, se
puede hacer una distinción entre dos tipos; bits informativos, y no
informativos. Bien, para diferenciarlos
podemos basarnos en esta regla, que aviso, no siempre es verdadera (y no es
invención mía, está sacada de un libro) Si no es posible predecir con exactitud
el valor del bit, es decir 1 ó 0, contiene información, por lo que se tiene que
dividir en más partes para nombrarlas como antes explicamos.
Si su valor puede asignarse de forma exacta, cumple una
función que no consiste en llevar información.
Los bits que contienen información, se combinan para
representar letras, números, caracteres… Por ejemplo, 01100001 es a, cada uno de esos bits,
son bits informativos, porque no pueden predecirse con exactitud, sino que han
sido asignados de forma arbitraria para formar a.
Los bits no informativos se utilizan para que el hardware de
un sistema pueda discriminar donde empieza un carácter y empieza el otro, es
decir, podemos diferenciar entre 0; empieza el carácter, y 1, termina el
carácter (es un ejemplo muy simplificado)así teniendo un método para descubrir
y corregir errores, a fin de que los equipos situados en ambos extremos de un
circuito puedan mantener la sincronización.
Bueno bloggeros hasta otra! J
Bits
Hola a todos!
Bueno, hoy continuaremos con el tema que dejamos el otro
día, como averiguar la mínima cantidad de información, con la que podremos
transmitir un mensaje, es decir en código binario. Recordemos que el número
mínimo de bits para transmitir un mensaje, es el logaritmo en base dos del
número de elecciones posibles. Pero la mayoría de los logaritmos en base dos
son números irracionales, y no podemos transmitir un número irracional de bits.
Entonces, cuando tenemos 26 elementos para transmitir cual es el elegido, ¿cómo
lo hacemos? Pues bien lg2
16< lg2 26< lg2 32 por lo tanto el número de bits necesario para transmitir ese mensaje será lg2 32. Pero
pongamos el caso en el que no hay elección posible, porque sólo existe un
elemento, lg2 1= 0, no se trasmite
ningún tipo de información.
Pongamos un ejemplo un poco más complejo. Tenemos una baraja
de cartas, con 52, ¿cuantas maneras de colocar las cartas hay? Esto es básico,
52! El número de bits que podemos representar por el orden de las cartas
después de un barajeo, es:
lg2 52! = 225,7 bits
Bien, cuando una persona barajea normalmente, corta la
baraja en dos montones aproximadamente iguales, montón A y montón B. Estos
representan una situación binaria, por lo que ¿cuantas posibilidades de
combinaciones tienen las cartas de estos dos montones? Pues al ser una
situación de dos conjuntos, serían 2^52 combinaciones posibles. Sabiendo esto,
el número máximo de bits que puede producir un barajeo es:
lg2
2^52= 52 bits de información que puede producir un barajeo
aleatorio.
Entonces si dividimos 225,7 entre 52, nos dará 4,3, por lo
tanto se necesitarán 5 barajeos mínimos
para que las 52 cartas estén dispuestas al azar.
Bueno bloggeros, hasta mañana! J
jueves, 9 de agosto de 2012
Código binario
Hola a todos!
Bien, hoy seguiremos con un aspecto principal de la teoría
de la información, el código binario.
El sistema binario, se considera un lenguaje de datos, ya
que todos los sistemas electrónicos y electromecánicos lo usan, y suelen tener
dos estados, encendido o apagado. Este sistema, está compuesto por dos dígitos,
cuya base es dos, es decir, solo se utiliza el 1 y el 0. Por lo tanto el código
binario posee una cualidad biestable, encendido o apagado. Esto se representa
mediante el 1 y el 0. Con estos dos números se pueden llegar a formar largos
mensajes.
Bien, sabiendo esto, podemos empezar con una medición de la
información, y ¿Cómo se mide la información, en que unidades? En bits, la
unidad básica de la medición de información es el bit. Una propiedad
fundamental del código binario es de reducir a la mitad la incertidumbre,
pongamos un ejemplo: Tiramos una moneda al aire, si sale cara lo simbolizamos
con 1, si sale cruz con 0, por lo tanto, la información sobre cómo ha caído la moneda,
la podemos representar con un solo bit de información, ya que al dar que ha caído
cara, implícitamente sabemos que no ha salido cruz. Es decir un bit es 1 o 0, “si”
o “no”. ¿Ha salido cara? Sí. Eso es un bit de información. Pero por ejemplo,
pongamos un caso, en el que hemos tirado un dado, que tiene 8 caras, ¿con
cuantos bits de información podríamos definir el lanzamiento? Llamemos a cada
cara con una letra A B C D E F G H
A B C
D E F G H
Dividamos esto en dos, a un grupo lo nombraremos con el 1 y a otro
____0____ ____1____ con el 0.
A B C
D E F G H
Bien, dividido en dos bloques, volvamos a dividir estos bloques
_0__ __1_ pequeños en otros dos
bloques.
A B C
D E F G H
Ahora, estos grupos más pequeños que hemos creado tienen dos
0 1 elementos, pues nombremos a cada elemento
con un número.
Por lo tanto para nombrar el suceso B, será necesario
expresarlo como 001, el A como 000, etc. Es decir utilizamos 3 bits de
información para nombrar un suceso. Con estos conocimientos podemos determinar cuántos
bits se necesitan para definir una elección entre varias posibles, como es un
sistema binario, podemos elegir entre dos opciones “si” o “no”. Por lo tanto:
2^número de elecciones que tienes que hacer =número de sucesos posibles
El número de elecciones que tienes que
hacer es igual al de bits necesarios para enviar un suceso del experimento. Si
queremos saber los bits que tenemos que enviar, lógicamente cambiaremos esta
ecuación exponencial a un simple logaritmo en base 2:
Información necesarias para
transmitir un suceso.
Por ejemplo pongamos un caso, tenemos 16
sucesos posibles, ¿en cuantos bits de información podemos transmitir un suceso?
Bien, pues aplicamos un logaritmo sencillo en base 2.
log2 16=x
x=4 Es decir son necesarios
4 bits para transmitir un suceso, por ejemplo 0000, para transmitir el primer
suceso.
Bueno, en próximas entradas ya explicaré
más cosas sobre la teoría de la información, y las elecciones complejas, hasta
luego bloggeros! J
P.D: Si algo no se entiende, poner un comentario con vuestro correo y la duda que tenéis y os la soluciono, es que ahora que lo veo parece un pelín confuso XD
miércoles, 8 de agosto de 2012
Entropía
Hola a todos!
Hoy, vamos a hablar sobre un aspecto de la teoría de la información, la entropía.
La información, posee la propiedad de disminuir la incertidumbre de una situación, a esta incertidumbre, la llamamos entropía, y se simboliza con la letra H. En cuanto crece la información, la entropía va disminuyendo. Se puede simbolizar con esta ecuación: H+INFORMACIÓN=1.
La entropía, está completamente ligada a la incertidumbre que existe en cualquier experimento aleatorio. Lo podemos considerar como el desorden en un sistema. Por ejemplo, si hemos tirado 3 veces una moneda, y sabemos que una vez ha salido cara, la entropía (tiene fórmula) será esas dos veces que no sabemos que ha salido.
Bien, vamos a definir las incógnitas de esta ecuación:
-H (X): Entropía del experimento X.
-p(xi): Probabilidad de que ocurra el estado posible p(xi) del suceso x (puede tener k estados posibles)
-i: Estados posibles.
(el logaritmo es en base dos, porque se considera como código binario)
Si i=2, se aplica la misma fórmula con una suma, es decir:
E p(1) log2 p(1)+ p(2) log2 p(2)= H (X)
i=2
p(2), es la probabilidad del estado 2
Bueno bloggeros, ya seguiré con más teoría de la información, hasta luego! :-)
Hoy, vamos a hablar sobre un aspecto de la teoría de la información, la entropía.
La información, posee la propiedad de disminuir la incertidumbre de una situación, a esta incertidumbre, la llamamos entropía, y se simboliza con la letra H. En cuanto crece la información, la entropía va disminuyendo. Se puede simbolizar con esta ecuación: H+INFORMACIÓN=1.
La entropía, está completamente ligada a la incertidumbre que existe en cualquier experimento aleatorio. Lo podemos considerar como el desorden en un sistema. Por ejemplo, si hemos tirado 3 veces una moneda, y sabemos que una vez ha salido cara, la entropía (tiene fórmula) será esas dos veces que no sabemos que ha salido.
![]() |
| Fórmula de la entropía. |
-H (X): Entropía del experimento X.
-p(xi): Probabilidad de que ocurra el estado posible p(xi) del suceso x (puede tener k estados posibles)
-i: Estados posibles.
(el logaritmo es en base dos, porque se considera como código binario)
Si i=2, se aplica la misma fórmula con una suma, es decir:
E p(1) log2 p(1)+ p(2) log2 p(2)= H (X)
i=2
p(2), es la probabilidad del estado 2
Bueno bloggeros, ya seguiré con más teoría de la información, hasta luego! :-)
Suscribirse a:
Comentarios (Atom)
