miércoles, 21 de diciembre de 2016

COMPRESION RLE

Cómo se realiza el proceso de compresión de imágenes RLE.

RLE es un candidato natural para la compresión de datos gráficos. Una imagen digital, se compone de pequeños puntos llamados píxeles. Cada píxel puede ocupar, uno o varios bits; con un bit, sólo se pueden representar dos colores —normalmente blanco o negro—; con n bits por píxel, el número de tonalidades disponibles aumenta a 2n, colores o tonos de gris. Suponemos que los píxeles se almacenan en la memoria en una matriz llamada mapa de bits (bitmap); en la cual, por lo tanto, se tienen los datos de entrada de la imagen. Los píxeles se disponen normalmente en el mapa de bits en líneas de exploración (scan lines), de manera que el primer píxel del mapa de bits, es el punto situado en la esquina superior izquierda de la imagen, y el último, es el situado en la esquina inferior derecha.
La compresión de una imagen mediante RLE, se basa en la observación de que, al seleccionar un píxel de la imagen al azar, existe una probabilidad muy alta de encontrar otros adyacentes a él —sus vecinos— con el mismo color.


Ejercicio 1.3


¿Cuál sería el archivo comprimido para el siguiente bitmap de 6 × 8?
6, 8, 0, 1, 3, 1, 4, 1, 3, 1, 4, 1, 3, 1, 4, 1, 3, 1, 2, 2, 2, 2, 6, 1, 1. Los dos primeros, son la resolución del bitmap (6 × 8). El siguiente, indica que el primer píxel es negro. Si se almacenan usando un byte por número, el tamaño es de 25 bytes —en comparación con el del mapa de bits de tan sólo 6 × 8 bits = 6 bytes—. El método no funciona con imágenes pequeñas.



Cómo se ejemplifica el proceso para la compresión de imágenes en escala de gris

RLE también puede utilizarse para comprimir imágenes en escala de grises. Cada bloque (run) de píxeles con la misma intensidad (nivel de gris) se codifica como un par (run length, valor del píxel).
El run length, ocupa normalmente un byte, lo que permite secuencias de hasta 255 píxeles. El valor del píxel ocupa varios bits, dependiendo del número de niveles de gris (típicamente, entre 4 y 8 bits).


Cómo son las formas de muestreo en RLE.




Ejercicio 1.4  


 Hay otra razón obvia, por la que cada fila de un bitmap debería ser codificada individualmente. ¿Cuál es?

El método RLE para imágenes se basa en la idea de que los píxeles adyacentes tienden a ser idénticos. No es común que el último píxel de una fila sea idéntico al primer píxel de la fila siguiente.





Explique el algoritmo RLE como trabaja para su funcionamiento.


La desventaja del algoritmo RLE para imágenes consiste en que cuando se modifica la imagen, normalmente los run lengths tienen que ser reconstruidos por completo. La salida proporcionada por el método RLE en imágenes complejas, a veces puede ser más grande que el almacenamiento de la imagen sin comprimir (i.e., una imagen sin comprimir —un volcado píxel a píxel del bitmap original—).


Codificar el algoritmo de compresión RLE










Compilar el algoritmo de compresión RLE

VISUAL STUDIO


JAVA





lunes, 19 de diciembre de 2016

TÉCNICAS DE CODIFICACIÓN DE LA FUENTE

CÓDIGO BRAILLE:


Este conocido código, que permite a los ciegos a leer, fue desarrollado por Louis Braille en 1820, y después de haber sido modificado varias veces, todavía se sigue utilizando hoy en día. Hay disponibles muchos libros en Braille en el National Braille Press. El código Braille se compone de grupos (o celdas) de 3 × 2 puntos cada una, con relieve en papel grueso. Cada uno de los 6 puntos de un grupo pueden ser planos o elevados, lo que implica que el contenido de la información de un grupo es equivalente a 6 bits, siendo posibles por ello un total de 2^6 = 64 grupos





resolver el ejercicio 1.1

Encuéntrense frases redundantes que formen parte de la vida cotidiana.
:(1) hacer una pregunta, (2) es absolutamente necesario, (3) con previo aviso, (4) punto de ebullición caliente, (5) subir, (6) un examen riguroso, (7) exactamente lo mismo, (8) obsequio, (9) calentador de agua, (10) mi opinión personal, (11) recién nacido, (12) aplazado hasta más tarde, (13) sorpresa inesperada, (14) misterios sin resolver




COMPRENSIÓN IRREVERSIBLE DE TEXTO


Algunas veces, es aceptable “comprimir” texto, simplemente desechando alguna información. Esto se conoce como compresión irreversible de texto o compactación. El texto es comprimido no es idéntico al original, por lo que estos métodos no son de propósito general; sólo pueden utilizarse en casos especiales.
En casos extremos, todos los caracteres, excepto letras y espacios, pueden ser despreciados, y se puede convertir todo el texto, a mayúsculas o minúsculas, reduciendo así el número de signos a codificar.

resolver el ejercicio 1.2

Un conjunto de caracteres que incluya las 26 letras en mayúsculas y el espacio, puede ser codificado con códigos de 5 bits, pero dejaría cinco códigos sin usar. Sugiérase una forma de utilizarlos.
Una forma razonable de utilizarlos es codificar las cinco cadenas más frecuentes en el texto.
Debido a que la compresión irreversible de texto es un método de propósito particular, el usuario puede saber qué cadenas son las más comunes en el flujo de datos a comprimir; tiene que proporcionárselas al codificador y además debe escribirlas al principio de la secuencia de salida (para el uso del decodificador)



Compresión del texto Ad hoc


A continuación, mostramos algunas sencillas e intuitivas ideas para aquellos casos en los que la compresión debe ser reversible (sin pérdidas):
Si el texto contiene muchos espacios, pero no están agrupados, se pueden eliminar; sus posiciones, se indican entonces mediante una cadena de bits, que contiene un 0 por cada carácter del texto que no es un espacio y un 1 por cada espacio. Por lo tanto, el texto


Utilice un organizador o tabla para conocer el código





CODIFICACIÓN RUN-LENGHT


La idea básica de este método es la siguiente: Si un dato d aparece n veces consecutivas en el flujo de entrada, se cambian las n ocurrencias con el par único nd. Las n apariciones consecutivas de un elemento de datos se llama run length9 de n, y este enfoque para la compresión de datos se llama codificación run-length o RLE. Aplicamos esta primera idea a la compresión de texto y luego a la compresión de imágenes.

 
COMPRESIÓN DE TEXTO RLE.

El reemplazo exacto de 2.⊔all⊔is⊔too⊔well con 2.⊔a2⊔is⊔t2⊔we2, es ambiguo y no funciona
. Claramente, el descompresor debería tener una manera de expresar que el primer 2 es parte del texto, mientras que los demás indican el número de repeticiones de las letras o y l. Incluso la cadena 2.⊔a2l⊔is⊔t2o⊔we2l, sigue sin resolver este problema (y además no proporciona compresión alguna). Un camino para resolver este problema es preceder cada repetición con un carácter especial de cambio de código (o código de escape). Si usamos @ como carácter de cambio de código, entonces la cadena 2.⊔a@2l⊔is⊔t@2o⊔we@2l, puede ser descomprimida sin ambigüedad. Sin embargo, esta cadena es más larga que la original, ya que sustituye dos letras consecutivas, con tres caracteres. Tenemos que adoptar la convención de que sólo se reemplacen por un factor de repetición, aquellos grupos compuestos por tres o más repeticiones de un mismo carácter. La Figura 1.6a es un diagrama de flujo, que explica el funcionamiento de un sencillo compresor de texto run-length.


 
CODIFICACIÓN RELATIVA

Esta es otra variante, a veces llamada diferenciación ([Gottlieb et al. 75]). Se utiliza cuando los datos a comprimir, están formados por una serie de números que no difieren en mucho entre sí (e.g., en la telemetría); o bien cuando se componen de cadenas similares. El último caso, se utiliza en la compresión de datos para envío por fax descrita en la Sección 2.13 y también en la compresión LZW

 En la telemetría, se utiliza un detector para recopilar datos a determinados intervalos y transmitirlos a una central para su posterior procesamiento. Un ejemplo, es el estudio de la temperatura de un lugar, en el que se realizan mediciones cada hora. Dos temperaturas sucesivas, no difieren mucho normalmente, por lo que el sensor necesita enviar sólo la primera de ellas, seguida por las diferencias.

lunes, 12 de diciembre de 2016

CODIFICACION DE LA FUENTE


Para que se realiza la codificación de la fuente?

Diseñar un sistema de comunicación para transmitir fiablemente (o con la mínima distorsión) un proceso aleatorio (la información).


Cómo se hace esta conversión de la fuente de información.

Aplicando el concepto al cifrado, decimos que un cifrado es 'con umbral' si para descifrar un mensaje se requiere que cooperen un número de entidades superior al umbral requerido. Este tipo de sistemas sólo es posible con clave pública. En estos sistemas el mensaje se cifra usando una clave pública y la clave privada es compartida de tal forma que permite la funcionalidad descrita. La existencia de un volumen oculto puede ser comprometida por implementaciones con elementos criptográficos predecibles o por algunas herramientas forenses que pueden revelar la presencia de datos cifrados no aleatorios. También se sugirió una vulnerabilidad de los volúmenes cifrados por trámite de la prueba de aleatoriedad chi-cuadrado, por la que sería necesaria, después de cada modificación de los datos cifrados, la inclusión de elementos correctivos para llevar el volumen a una condición de aleatoriedad verosímil

Cómo es el esquema de compresión.
En los últimos años se ha dado un aumento tanto de la capacidad de almacenamiento de datos como en la velocidad de procesamiento en las computadoras. Junto con esto, la tendencia es la disminución de costos en memoria principal y secundaria así como también un aumento de velocidad de estos dispositivos de almacenamiento. Estos acontecimientos ponen en cuestionamiento la necesidad de compresión de datos. Sin embargo, el auge que últimamente han tenido las redes de computadoras, demanda más prestaciones que están por encima de las posibilidades reales. El principal problema al que se enfrentan las redes de comunicación es la velocidad de transferencia de datos. El cambio a mayores velocidades no es tarea fácil, básicamente por razones como la no factibilidad de realizar cambios de infraestructura en las grandes Métodos de Compresión Métodos de Compresión: Diciembre de 2003 compañías de redes WAN (cableado, tecnologías, etc.) así como la falta de tecnología que acepte unas velocidades muy elevadas de transmisión.


Codificación de Huffman

La codificación de Huffman [H52] es un método propuesto en 1952 por David Huffman. La idea detrás de la codificación de Huffman es asignar códigos binarios lo más cortos posibles a aquellos símbolos que ocurren con mayor frecuencia en los datos. Los símbolos con poca frecuencia tendrán asignado códigos binarios de longitud más grande. El óptimo desempeño del algoritmo se consigue cuando el número de bits asignado a cada carácter es proporcional al logaritmo de la probabilidad de mismo.  

1) Si la lista contiene un solo nodo, terminar 
2) Los dos nodos (L y R) de la lista con las probabilidades más pequeñas se seleccionan. 
3) Se crea un nodo intermedio (F) y se construye un subárbol siendo F el padre, L y R los hijos izquierdo y derecho respectivamente. El arco entre los nodos F y L se etiquetan como 0 y el arco entre los nodos F y R se etiqueta como 1. 
4) F es agregado a la lista ordenada con valor de probabilidad igual a la suma de las probabilidades de L y R.


Codificación Aritmética 

Codificación aritmética [WNC87] es una técnica que obtiene excelente razón de compresión, aunque es un método lentota que requiere por lo menos de una multiplicación por cada símbolo de entrada. En teoría, la codificación aritmética asigna un único codeword a cada posible conjunto de datos. La compresión aritmética se basan también en las probabilidades de ocurrencia de los mensajes emitidos por la fuente de información. Se basa en la representación de un valor del intervalo [0,1] con más decimales (más precisión) cuanto más información contengan los datos a comprimir. La codificación aritmética se realiza siguiendo los pasos siguientes: 

1. Inicialmente, el intervalo actual es [L, H) = [0, 1) 
2. Para cada símbolo s en la entrada se realizan dos acciones: a. El intervalo actual se subdivide en subintervalos. El tamaño del subintervalo es proporcional a la probabilidad estimada de los símbolos. b. Se selecciona el subintervalo que corresponde a s, este intervalo es ahora el intervalo actual. 
3. Cuando el archivo se ha procesado, la salida final como resultado de la compresión es un número dentro del intervalo actual, generalmente, aquel que ocupe menos bits

Métodos substitucionales o basados en diccionario.  

Los métodos basados en diccionario usan el principio de remplazar cadenas de datos con codewords que identifican a esa cadena dentro de un diccionario [WMB99].    El diccionario contiene una lista de subcadenas y codewords asociados a cada una de ellas. El diccionario que contiene las cadenas de símbolos puede ser estático o adaptable (dinámico). Los métodos basados en diccionario, a diferencia de los métodos estadísticos, usan codewords de longitud fija y no requieren de las estadísticas de los símbolos para realizar la compresión.  Prácticamente, todos los métodos de compresión sustitucionales están basados en los métodos de compresión desarrollado por Jacob Ziv y Abraham Lempel en los 70s, los métodos LZ77 y LZ78. En ambos métodos una subcadena es remplazada por un apuntador a donde dicha cadena haya ocurrido previamente en el diccionario, el cual, se crea dinámicamente. Las principales diferencias entre los métodos sustitucionales son en como los apuntadores son representados y en las limitaciones que imponen sobre lo que los apuntadores pueden representar.

1. El codificador busca la subcadena más grande en el buffer de búsqueda (de derecha a izquierda) que sea el prefijo del buffer hacia el frente. a. Si tal subcadena existe,  la codificación consiste de una tripleta T = (O, L, C), donde O es la distancia en símbolos desde inicio de la subcadena encontrada hasta el final del buffer de búsqueda, L es la longitud de la subcadena encontrada y C es el símbolo siguiente a la subcadena encontrada en el buffer hacia el frente. b. Si la cadena no existe, O y L son puestos a cero y C es el primer símbolo del buffer hacia el frente (en la figura 2. 4, el símbolo ak+n+1). 
2. Ambos buffers se recorren hacia la izquierda L + 1 posiciones


lunes, 5 de diciembre de 2016

CÓDIGOS LINEALES


¿Qué tipos de códigos se conocen?

Códigos bloque y códigos lineales

¿A qué se refiere la equivalencia y automorfismo de códigos?

La definición tradicional de equivalencia de códigos es la siguiente (véanse, por ejemplo [4, 5, 9]).
2.2.1. Definición. Dos códigos C y D, q-arios decimos que son equivalentes si se puede obtener uno del otro a través de una combinación de operaciones de los siguientes tipos:
1. Permutación de las posiciones.
2. Permutación de los símbolos de una posición fija. Como aplicación, un resultado muy ´útil a la hora de hacer cálculos


A que se refiere un código lineal.

Un codigo lineal q-ario de longitud n y rango k es un subespacio L F n q de dimensión k. Así el subespacio L es un [n, k]q-código;
Si L tiene distancia d entonces L es un [n, k, d]q-código;
Si L Z n 2 , en general se escribe simplemente [n, k, d]-código.


Que son los códigos duales u ortogonales

Sea F un cuerpo finito y C ≤ F n un subespacio. Sabemos que dim C + dim C = n.
3.2.2. Definición. Sea C un código lineal con matriz de control H = H(C). El código dual de C que denotamos C es justo el generado por H. Claramente,
C =  x F n q | xGt = 0 = Ni G t  = Nd (G) y C es un [n, n k]-código lineal si C es un [n, k]-código lineal. Aún más, se puede probar fácilmente que, en la situación de la definición anterior, H = G C  
3.2.3. Definición. Un código lineal C se llama auto ortogonal si C ≤ C y se llama auto dual si la igualdad se verifica; es decir, C = C Claramente, para ser auto dual, es condición necesaria tener dimensión n/2 N.


Codificación y decodificación de códigos lineales

Ya hemos comentado que para hacer la codificación en códigos lineales usamos una aplicación lineal que tiene que ser inyectiva (1.1.1); luego el espacio de las palabras de longitud k verifica F k = C. Cuando un código es muy grande, se aprecia con claridad la necesidad de codificar y descodificar por formula. El proceso de codificación es en general, mucho más fácil que el de decodificación. La razón es que en la decodificación hemos incluido la corrección de errores, lo más costoso.


Cuáles son los constructores con códigos lineales.

Pinchado
Ya hemos visto algunos resultados generales en (2.3.2). En el caso de los códigos lineales podemos mejorarlo. Vamos al caso cuando d = 1. La demostración es trivial.
3.5.1. Corolario. Sea C un [n, k, 1]-código sobre Fq y sea C ? i el código pinchado en la i-´esima coordenada. Si C ? i 6= 0 entonces es un [n−1, k? , d? ]-código, donde, 1. k ? = k si (0, . . . , 1i , 0 . . . , 0) 6 C. 2. Si k > 1, y no se cumple el apartado anterior será un [n−1, k−1, 1]-código.
3.5.2. Sea C un código lineal sobre F. Sea C ? el código pinchado en la ´ultima coordenada y luego extendido (por definición, también en la ´ultima). Entonces C = C ? si y solo si C es de tipo par.
Extendido
También hemos visto ya los resultados generales en (2.3.7 y 2.3.8). Es muy fácil comprobar cualquiera de los siguientes hechos.
3.5.3. Observación. 1. Extendido de lineal es lineal. Aún más, si C es lineal y tiene parámetros [n, k, d] entonces Cb tiene parámetros h n + 1, k, db i , donde db= {d, d + 1}.


A que se refiere la Cota de Hamming, Singleton y Códigos MDS

Cota de Hamming Esta cota viene a completar el estudio de los códigos perfectos. Lo que hemos visto en (2.1.20 y 2.1.21) nos indica fácilmente la demostración del siguiente resultado, que se conoce como cota de Hamming o del empaquetado esférico.
Cota de Singleton y códigos MDS Esta cota es sencilla pero muy útil y da lugar a los códigos de Reed Solomon, que veremos después, y que se usan para la reproducción de los CD.


Investigue sobre los tipos especiales de códigos lineales: Hamming y códigos simples, de Golay y Reed-Muller

La construcción de los códigos de Hamming y algunas de sus propiedades en el caso binario las hemos visto en capítulos anteriores. Vamos a extender la definición. Sea Fq un cuerpo finito cualquiera y consideremos F r q con r ≥ 2. Llamamos código de Hamming y denotamos Hq,r a todo aquel código cuya matriz de control se construye de la siguiente manera. La denotamos con Hq,r. 1. Consideramos todos los distintos subespacios de dimensión 1 de F r q . Sabemos que hay exactamente q r−1 q−1 (q r son todos, q r − 1, porque el < 0 > tiene dimensión 0, y q r−1 q−1 porque los múltiplos se absorben).


Investigar los siguientes códigos cíclicos:

7.1.1. Definición. Un [n, k]-código lineal C sobre Fq se llama código cíclico si cumple que es cerrado para permutaciones cíclicas; es decir, (x0, . . . , xn−1) C (xn1, . . . , xn2) C.

Códigos cíclicos y anillos de polinomios

Seguimos suponiendo que mcd(n, p) = 1. Considérese F n q con la base canónica En y Rn = F n q /(Xn − 1), como hemos estudiado, con su base canónica Xn =  1, X, X2 , . . . , Xn (abusando de notación, porque deberían de tener barras). Sea φ : En → Xn tal que φ(ei) = Xi−1 , i = 1, . . . , n. Esta correspondencia induce un isomorfismo Ψ : F n q −→ Rn que dejaremos en notación fija.

Ceros de un código cíclico y matriz de control.

Sea C un código cíclico de orden n sobre Fq, con mcd(n, q) = 1, sea ξ una raíz n-´esima primtitiva de 1, y sea S un juego completo de representantes de las clases q-ciclot´omicas modulo n. Sea g(X) el generador de C (Observación 6.5.6). Como sabemos del Teorema 6.5.5 si g(X) | Xn − 1 entonces g = Y tT S mξ t .


Codificación y decodificación en códigos cíclicos.

 Como hipótesis general, supongamos que tenemos un código cíclico C ≤ Rn tal que C = hgi, con g el polinomio generador, con gr(g) = r, así que la dimensión dim C = n − r. Comenzamos con la codificación. Vamos a ver una decodificación sistemática. Supongamos que queremos codificar la palabra a0 · · · an−r−1.
1. Hacemos a(X) = Pn−r−1 i=0 aiXn−i−1
2. Luego operamos a(X) = pg + s, con gr(s) < r.
3. Finalmente hacemos c = a − s = pg.
Para decodificar, se puede proceder de la siguiente manera.
1. Se recibe un vector p Rn.

2. Se divide p = gs + t, con gr(t) < r. Es claro que si p = c + e, entonces existe s 0 Rn tal que p = c 0 g +e. La unicidad del algoritmo de la división nos dice que c = c 0 ; luego p − t es la palabra buscada.

miércoles, 19 de octubre de 2016

FUNDAMENTO DE LA ENTROPIA DE LA INFORMACION

La entropía, en la teoría de la información, es una magnitud que mide la información provista por una fuente de datos, es decir, lo que nos aporta sobre un dato o hecho concreto. 

Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba de llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen que las calles están mojadas y sabemos que no ha llovido, aporta mucha información (porque no las riegan todos los días).



{\displaystyle c_{i}=\log _{2}(k)=\log _{2}[1/(1/k)]=\log _{2}(1/p)=\underbrace {\log _{2}(1)} _{=0}-\log _{2}(p)=-\log _{2}(p)}

{\displaystyle H=-p_{1}\log _{2}(p_{1})-p_{2}\log _{2}(p_{2})-....-p_{k}\log _{2}(p_{k})=-\sum _{i=1}^{k}p_{i}\log _{2}(p_{i})}


{\displaystyle H(X)=-\sum _{i}p(x_{i})\log _{2}p(x_{i})}

ENTROPIA DE LA FUENTE

Mapa Mental creado con GoConqr por markos ruales

FUNDAMENTOS DE LA ENTROPIA



La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una «medida del desorden» o la «peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

ELEMENTOS DE LA TEORIA FUENTE

Mapa Mental creado con GoConqr por markos ruales

lunes, 17 de octubre de 2016

TEORIA APLICADA A LA TECNOLOGIA

La Teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga, Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales, ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET

PILARES:

Fuente
Tipos de fuente
Mensaje
Código
Información

FINES DE LA TEORIA DE COMUNICACION

Mapa Mental creado con GoConqr por markos ruales

Desarrollo de la teoría de la comunicación

El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal sale del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. (El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido.)

TEORÍA DE LA INFORMACION

Mapa Mental creado con GoConqr por markos ruales

miércoles, 5 de octubre de 2016

ACTIVIDAD N1

ACTIVIDADES DEL APRENDIZAJE

Para los fines pertinentes a la fijación de conceptos, a la aprehensión de conocimientos y al manejo de elementos teórico – prácticos, realice los siguientes ejercicios:

a. Cuáles son las fuentes de información según el nivel informativo 

1.Fuente de Información Primaria.
2.Fuente de Información Secundaria.
3.Fuente de Información Terciaria.

b. Que es una Fuente de Información Primaria

Aquellas fuentes que contienen información nueva u original y cuya disposición no sigue, habitualmente, ningún esquema predeterminado

c. Mencione dos tipos de Información Primaria 

 1. Revistas científicas
 2. Patentes

d. Que es una Fuente de Información secundaria 

Aquellas que contienen material ya conocido, pero organizado según un esquema determinado. La información que contiene referencia a documentos primarios.

e. Menciones dos tipos de información secundaria 

1. ENCICLOPEDIAS
2. DICCIONARIOS

d. Cuales son las Fuentes de Información Terciarias

Son aquellas fuentes que contienen información de las secundarias. Son fuentes que no están muy tratadas aún en su conceptualización y naturaleza.

e. Mencione un tipo de Información Terciaria 

1. Revistas

f. Que es una Base de Datos 

Es una entidad en la cual se pueden almacenar datos de manera estructurada, con la menor redundancia posible. Diferentes programas y diferentes usuarios deben poder utilizar estos datos.

Cómo es el proceso para la búsqueda de información utilizando fuentes? Se calcula que los científicos utilizan un 20% del su tiempo como investigadores haciendo bibliografía, es decir, recuperando información. Por ello es importante que se aprenda a hacerlo bien. Información retrospectiva. Es la información que se necesita cuando se comienza un nuevo proyecto. Búsqueda de datos concretos. La necesidad de buscar datos concretos puede surgir en cualquier momento durante la realización de un trabajo científico. 1. Se debe tener muy claro "qué se busca" y formular el tema de la búsqueda de una manera clara y concisa. 2. Buscar en las fuentes bibliográficas descriptores, palabras clave (“keywords”) y sinónimos para localizar la información en las fuentes secundarias. 3. Buscar aspectos complementarios al tema de búsqueda que pueden ser también de interés: términos más amplios o más específicos, etc. 4. Limitar la búsqueda, si se considera conveniente, por años, tipos de documentos, lengua, etc. 5. Buscar la bibliografía apropiada en catálogos de bibliotecas, publicaciones secundarias, bases de datos. 6. Seleccionar la información realmente relevante. 7. Evaluar los resultados, y si no son satisfactorios modificar o alterar la estrategia

FUENTES DE INFORMACION

Mapa Mental creado con GoConqr por markos ruales