miércoles, 19 de octubre de 2016

FUNDAMENTO DE LA ENTROPIA DE LA INFORMACION

La entropía, en la teoría de la información, es una magnitud que mide la información provista por una fuente de datos, es decir, lo que nos aporta sobre un dato o hecho concreto. 

Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba de llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen que las calles están mojadas y sabemos que no ha llovido, aporta mucha información (porque no las riegan todos los días).



{\displaystyle c_{i}=\log _{2}(k)=\log _{2}[1/(1/k)]=\log _{2}(1/p)=\underbrace {\log _{2}(1)} _{=0}-\log _{2}(p)=-\log _{2}(p)}

{\displaystyle H=-p_{1}\log _{2}(p_{1})-p_{2}\log _{2}(p_{2})-....-p_{k}\log _{2}(p_{k})=-\sum _{i=1}^{k}p_{i}\log _{2}(p_{i})}


{\displaystyle H(X)=-\sum _{i}p(x_{i})\log _{2}p(x_{i})}

ENTROPIA DE LA FUENTE

Mapa Mental creado con GoConqr por markos ruales

FUNDAMENTOS DE LA ENTROPIA



La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una «medida del desorden» o la «peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

ELEMENTOS DE LA TEORIA FUENTE

Mapa Mental creado con GoConqr por markos ruales

lunes, 17 de octubre de 2016

TEORIA APLICADA A LA TECNOLOGIA

La Teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga, Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales, ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET

PILARES:

Fuente
Tipos de fuente
Mensaje
Código
Información

FINES DE LA TEORIA DE COMUNICACION

Mapa Mental creado con GoConqr por markos ruales

Desarrollo de la teoría de la comunicación

El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal sale del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. (El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido.)

TEORÍA DE LA INFORMACION

Mapa Mental creado con GoConqr por markos ruales

miércoles, 5 de octubre de 2016

ACTIVIDAD N1

ACTIVIDADES DEL APRENDIZAJE

Para los fines pertinentes a la fijación de conceptos, a la aprehensión de conocimientos y al manejo de elementos teórico – prácticos, realice los siguientes ejercicios:

a. Cuáles son las fuentes de información según el nivel informativo 

1.Fuente de Información Primaria.
2.Fuente de Información Secundaria.
3.Fuente de Información Terciaria.

b. Que es una Fuente de Información Primaria

Aquellas fuentes que contienen información nueva u original y cuya disposición no sigue, habitualmente, ningún esquema predeterminado

c. Mencione dos tipos de Información Primaria 

 1. Revistas científicas
 2. Patentes

d. Que es una Fuente de Información secundaria 

Aquellas que contienen material ya conocido, pero organizado según un esquema determinado. La información que contiene referencia a documentos primarios.

e. Menciones dos tipos de información secundaria 

1. ENCICLOPEDIAS
2. DICCIONARIOS

d. Cuales son las Fuentes de Información Terciarias

Son aquellas fuentes que contienen información de las secundarias. Son fuentes que no están muy tratadas aún en su conceptualización y naturaleza.

e. Mencione un tipo de Información Terciaria 

1. Revistas

f. Que es una Base de Datos 

Es una entidad en la cual se pueden almacenar datos de manera estructurada, con la menor redundancia posible. Diferentes programas y diferentes usuarios deben poder utilizar estos datos.

Cómo es el proceso para la búsqueda de información utilizando fuentes? Se calcula que los científicos utilizan un 20% del su tiempo como investigadores haciendo bibliografía, es decir, recuperando información. Por ello es importante que se aprenda a hacerlo bien. Información retrospectiva. Es la información que se necesita cuando se comienza un nuevo proyecto. Búsqueda de datos concretos. La necesidad de buscar datos concretos puede surgir en cualquier momento durante la realización de un trabajo científico. 1. Se debe tener muy claro "qué se busca" y formular el tema de la búsqueda de una manera clara y concisa. 2. Buscar en las fuentes bibliográficas descriptores, palabras clave (“keywords”) y sinónimos para localizar la información en las fuentes secundarias. 3. Buscar aspectos complementarios al tema de búsqueda que pueden ser también de interés: términos más amplios o más específicos, etc. 4. Limitar la búsqueda, si se considera conveniente, por años, tipos de documentos, lengua, etc. 5. Buscar la bibliografía apropiada en catálogos de bibliotecas, publicaciones secundarias, bases de datos. 6. Seleccionar la información realmente relevante. 7. Evaluar los resultados, y si no son satisfactorios modificar o alterar la estrategia

FUENTES DE INFORMACION

Mapa Mental creado con GoConqr por markos ruales