TEORÍA DE LA INFORMACIÓN

Guía Didáctica

 


Perfil y Entorno Conceptual.

Objetivos Didácticos
Programa
Evaluación
Prácticas
Bibliografía

Transparencias de Clase

Temas de Clase

Alumnos

Nuevos Apuntes

 
  PERFIL Y ENTORNO CONCEPTUAL

 

            Wiener en el libro The Human Use of Human Beings escribia "Vivir verdaderamente es vivir con la información adecuada".

        En el entorno conceptual , se puede decir que la teoría de la Información tiene por objeto el contenido y la constitución de los mensajes. El pilar básico de la teoría de la Información es proporcionar una medida del contenido de información de un mensaje en términos de su impredictibilidad, que es descrito por los términos de "fuente", "emisor", "canal de comunicación", "receptor", pero que no hace intervenir para nada la naturaleza física que está asignada generalmente a estos vocablos. La teoría de la Información expresa las relaciones que existen entre las configuraciones de los estados de un sistema cualquiera, donde la evolución es aleatoria y el soporte abstracto. Las relaciones son formalmente semejantes a las que se encuentran en la Termodinámica Estadística. Insistiremos que el carácter analógico es solamente formal; sin embargo tiene el mérito de hacer aparecer la teoría de la Información como una disciplina que en materia de comunicaciones juega un papel semejante al de la Energética en el dominio de la Física. En efecto, la Energética es la ciencia de las relaciones generales que preside la evolución de los sistemas físicos. Según [OSWA‑86], bajo este ángulo sería más coherente llamar "Informática" a la disciplina que lleva el nombre de "Teoría de la Información".

La Teoría de la Información vista un siglo después de la Termodinámica, y aunque las dos disciplinas usan las mismas herramientas matemáticas, la cronología no es más que la separación entre la aparición de las máquinas de vapor y los modernos sistemas de telecomunicación. En efecto las Teorías nacen siempre bajo el influjo de la necesidad, es decir del desarrollo de las ciencias y de la técnica.

El paralelismo entre las dos teorías llega hasta la utilización de la palabra "entropía" para designar a la cantidad de información. Este nombre fue propuesto por el creador de la teoría de la Información,  Shanonn , y ha sido adoptado universalmente, habiendo contribuido muy poco a la popularidad de la nueva ciencia debido al carácter de inteligible del término. Desdichadamente también ha contribuido a la difusión de algunas ideas falsas sobre su interpretación y su comprensión. La información  no es más que una medida agregada a los estados dicernibles de un sistema  y su evolución a lo largo del tiempo: es una magnitud matemática, pero no es una magnitud física caracterizando una propiedad de la materia. La analogía entre la Termodinámica estadística y la teoría de la Información no es más que formal; si ello se traduce  por la similitud de muchas de la fórmulas y de los juegos de ecuaciones, nada autoriza a identificar las magnitudes homólogas que se encuentran en las dos disciplinas.

        Paradójicamente, si la tentación de una verdadera asimilación no ha sido  descartada, la analogía formal no está más lejos que la sugerida del examen de los problemas y que autoriza la escritura matemática para su utilización en teoría de la Información. De todas formas se debería utilizar una terminología propia en Teoría de la Información y no la propia de la Termodinámica. En este sentido [OSWA‑86] utiliza el término "densidad diacrítica" para denominar a la entropía. El mismo autor sugiere no subestimar la importancia del vocabulario como factor de orden que refleja la claridad de conceptos y que suministra armonía al razonamiento. En este sentido reina una gran anarquía entre los autores de obras sobre la teoría de la Información en lo referente a la definición y nomenclatura de las magnitudes fundamentales.

Aunque la descripción de los códigos correctores de errores no entra dentro de la Teoría de la Información sino de la Codificación, esta relacionada con la misma como vehículo protector de la información las nociones de redundancia y rendimiento no pueden ser presentados sin una vuelta a las propiedades esenciales de los códigos. El problema de la eficacia de los códigos correctores de errores se merece un análisis en profundidad que aclare la Teoría de la distorsión.

 

OBJETIVOS DIDÁCTICOS.

La formación que se pretende dar está orientada a que los alumnos adquieran en principio un sentido de objetivos, planteamientos y aplicaciones de la disciplina. Esta se organiza de manera que las materias que se expongan recojan  primeramente los fundamentos básicos de la Teoría de la Información con el estudio de los teoremas fundamentales en los que se basa la misma. La segunda parte está dedicada al estudio de la transmisión de la información. El objetivo final es que los alumnos adquieran una formación en un conjunto básico de métodos y técnicas para el estudio de transmisión de datos.

        El programa se organiza en módulos, entendiendo por módulo un bloque conceptual con una cierta unidad metodológica. Los módulos se subdividen en temas, planteados no como unidades temporales en lo referente a su exposición didáctica sino, como unidades conceptuales.

        Los módulos están distribuidos de la siguiente manera:

        M1: Información y su Medida.

        M2: Fuentes y canales de Información.

        M3: Codificación de la Información.

       M4: Mensajes Confiables  y Canales no Confiables.

         El orden de presentación de los módulos de la asignatura se ha planificado de manera que, primero se expone el M1 correspondiente a la Información y su  Medida para en el M2 estudiar las fuentes y Canales de Información. En el M3 se estudia la Codificación de la Información  para en el  M4 introducir los Mensajes Confiables y Canales no Confiables realizándose una introducción a la Criptografía en el M5

      En el primer módulo se estudia desde las nociones básicas de información, la medida de la cantidad de información tanto en el caso discreto como continuo hasta llegar al estudio de los niveles de información. En el M2 se introduce el estudio de las fuentes de información, tanto las de memoria nula como las fuentes con memoria, así como el estudio de los canales de información discretos y continuos. En el M3 se estudia la codificación de la información desde los canales sin perturbaciones, donde se introduce el primer teorema de Shannon,  hasta los canales perturbados. Seguidamente se realiza el análisis de los códigos detectores y correctores de errores y códigos cíclicos.. En el M4 se introduce el soporte introductorio necesario para demostrar el segundo teorema de Shannon

 

 PROGRAMA

MODULO I:INFORMACION Y SU MEDIDA

 

                             TEMA I.1

 

 NOCIONES BÁSICAS DE INFORMACIÓN. TRANSMISIÓN DE LA INFORMACIÓN

 

1.0. Origen de la teoría de la información.

1.1  Que es la información.

1.2  Postulados en torno a la información.

1.3  Información compuesta:

1.3.1  Por coordinación.

1.3.2  Por subordinación.

1.4  Representación de la información:

1.4.1  Representación mediante lenguajes usuales.

1.4.2  Representación alfabética.

1.5  Transmisión de la información: terminología.

1.6 Modelo de  un  sistema de transmisión de la información.

 

BIBLIOGRAFÍA : [GONZ‑81]  [ABRA‑86] [VIÑA‑88] [HUGU‑89]                       

     

 TEMA I.2

 

MEDIDA DE LA CANTIDAD DE INFORMACIÓN EN EL CASO DISCRETO

 

2.1 Representación de la densidad diacrítica: entropía de un sistema. Analogía termodinámica.

2.2  Propiedades de la entropía.

2.3  Teorema de Mac‑Millan.

2.4  Definición axiomática de la entropía

2.4.1  Axiomática de Khintchine.

2.4.2  Axiomática de Faddeev.

2.4.3  Otras axiomáticas.

2.5  Entropías compuestas

2.5.1  Entropía compuesta (conjugada).

2.5.2  Entropía condicional.

2.5.2.1  Entropia  de un  fenómeno multivariable.

2.5.2.2  Entropia condicional.

2.6  Relaciones entre las entropias.

2.6.1  Igualdades fundamentales.

2.6.2  Desigualdades fundamentales.

2.6.3  Casos limites

2.6.3.1  Variables aleatorias independientes.

2.6.3.2  Variables aleatorias dependientes.

 

BIBLIOGRAFÍA: [OSWA‑86]  [ROUB‑79]  [GIL‑81]  [GONZ‑81] [VIÑA‑88] [HUGU‑89]

 

 

   TEMA I.3

 

TRATAMIENTO DE LA INFORMACIÓN

 

3.1  Tratamiento de la información.

3.1.1  Tratamiento de los conocimientos.

3.1.2  Significado del tratamiento de la información.

3.2  Niveles de información.

3.2.1  Nivel sintáctico.

3.2.2  Nivel semántico

3.2.3  Nivel pragmático.

3.2.4  Sintaxis y semántica.

3.3  Procesos reversibles e irreversibles

 

 BIBLIOGRAFÍA: [OSWA‑86]  [GONZ‑81]

 

                                       MODULO II: FUENTES Y CANALES DE INFORMACION

 

                                     TEMA II.1

 

FUENTES DE INFORMACIÓN DISCRETAS DE MEMORIA NULA

 

1.1  Introducción: terminología.

1.2  Concepto de fuente de información.

1.3  Fuentes discretas de memoria nula.

1.3.1  Descripción.

1.3.2  Suministro de información y redundancia de una fuente.

1.4  Extensión de una fuente de memoria nula.

 

 BIBLIOGRAFÍA: [ABR‑86]  [GONZ‑81]

 

TEMA II.2

 

                                    FUENTES DE INFORMACIÓN DISCRETAS CON MEMORIA

 

2.1  Fuentes discretas con memoria: fuentes de Markov.

2.1.1  Cadenas o procesos de Markov.

2.1.2  Información media de una fuente de Markov.

2.1.3  Extensión de una fuente de Markov.

2.2  Ergocidad.

2.3  Probabilidad absoluta de símbolos.

2.4  Fuente afín.

2.5  Redundancia de una fuente con memoria.

2.6  Fuentes primarias y secundarias.

2.7  Estructura del lenguaje.

 

 BIBLIOGRAFÍA: [ABR‑86]  [GONZ‑81] [OSWA‑86]

 

                                             TEMA II.3

 

CANALES DE  INFORMACIÓN DISCRETOS

 

3.0  Introducción.

3.1  Definición de un canal.

3.1.1  Canal discreto sin memoria.

3.1.2  Canal discreto con memoria.

3.2  Representación probabilística de un canal.

3.3  Extensión de un canal.

3.4  Entropias asociadas a la fuente y al canal.

3.5  Relaciones entre las entropias: información mutua.

3.6  Propiedades de la información mutua.

3.7  Información mutua de un canal binario

 

 BIBLIOGRAFÍA:[ROUB‑79][SPAT‑70] [OSWA‑86][SING‑76] [HERN‑67] [GONZ‑81] [POLI‑88]

 

                                            TEMA II.4

 

                                         PARÁMETROS ASOCIADOS A UN CANAL DISCRETO

 

4.1  Capacidad de un canal discreto sin perturbaciones.

4.1.1  Transmisión de la información.

4.1.2  Capacidad.

4.2  Canales sin ruidos.

4.3  Teorema fundamental de los canales sin ruido.

4.4  Capacidad de un canal discreto perturbado.

4.4.1  Diferentes clases de canales.

4.4.2  Canales simétricos.

4.4.3  Capacidad de un canal uniforme.

4.4.4  Canal binario simétrico.

4.4.5  Canal binario con anulaciones.

4.5  Calculo general de la capacidad de canal.

4.6  Redundancia y rendimiento de un canal discreto.

4.7  Esquema de traducción del observador ideal.

4.8 Teorema fundamental de la codificación de los canales perturbados.

 

 BIBLIOGRAFÍA: [GONZ‑86]  [POLI‑88] [GIL‑81]  [SPAT‑70]

 

                                                                                         

 

                                                                                 TEMA II.5

 

                                                                 ASOCIACION DE CANALES

 

5.1  Asociación de canales en serie.

5.2  Asociación en serie de un C.B.S.

5.3  Reducción de un canal.

5.4  Canales reducidos y reducciones suficientes.

5.5  Propiedad aditiva de la información mutua.

5.4  Información mutua entre diferentes alfabetos.

5.6  Información mutua condicional.

 

 BIBLIOGRAFÍA: [ABRA‑86]  [HERN‑67]

 

  

                                         MODULO III: CODIFICACION DE LA INFORMACION

 

 

                   TEMA III.1

 

               PROPIEDADES DE LOS CÓDIGOS

 

1.1  Definición y terminología.

1.2  Propiedades de los códigos.

1.3  Clasificación de los códigos.

1.4  Códigos de decodificación única.

1.4.1  Códigos instantáneos.

1.4.2 Teorema de existencia de los códigos instantáneos  (irreductibles).

1.4.2.1 Inecuación de Kraft.

1.4.2.2 Inecuación de Mac‑Millan.

 

 BIBLIOGRAFÍA: [SPAT‑70]    [HERN‑67]

 

                             TEMA III.2

 

  CODIFICACIÓN DE LA INFORMACIÓN PARA CANALES SIN PERTURBACIONES

 

2.1  Longitud media de una palabra coligo.

2.1.1 Limite  inferior   de  la  longitud media  de una  palabra‑coligo.

2.1.2 Capacidad, eficiencia  y  redundancia de un coligo.

2.1.3  Códigos óptimos.

2.2 Teorema de  codificación de los canales sin ruidos: primer  teorema de Shannon.

2.3  Codificación símbolo a símbolo.

2.3.1 Código  de Shannon‑Fano. Generalización del método.

2.3.2  Código binario de Huffman.

2.3.3  Códigos de Huffman S‑arios.

2.4  Aplicación  del  primer   teorema  de  Shannon a  las fuentes de Markov

2.5  Rendimiento y redundancia de un código.

 

 BIBLIOGRAFÍA: [SPAT‑70]  [GONZ‑81]  [SPAT‑70]  [ABRA‑86] [GIL‑81]

 

 

 

 BIBLIOGRAFÍA: [CULL‑76]  [GIL‑81]

 

 

                        TEMA III.3

 

 CODIFICACION   DE   LA   INFORMACION    PARA  CANALES   CON  PERTURBACIONES. CODIGOS DETECTORES Y CORRECTORES DE ERRORES

 

3.1  Códigos detectores y correctores de errores.

3.2  Clasificación de los códigos.

3.3  Códigos bloque.

3.3.1 Representación matricial  de las palabras‑ código

3.3.2  Matriz generatriz.

3.3.3  Matriz de control.

3.3.4  Codificación de los códigos bloque.

3.3.5  Decodificación de los códigos bloque.

3.3.5.1  Probabilidad de error en los códigos bloque.

3.3.5.2  Vector corrector.

3.3.6 Códigos geométricos o de control generalizado de paridad: código de Hamming.

3.3.6.1 Código de  Hamming corrector de un error.

3.3.6.2 Código de Hamming corrector de un error y detector de  errores dobles.

3.3.6.3  Estudio del código (7,4).

3.3.6.4  Formulación del caso general.

 

 BIBLIOGRAFÍA: [SPAT‑70]  [GONZ‑81]  [ROUB‑70]  [GIL‑81]

 

 

 
                                                                             

                 TEMA III.4

 

 

               CODIGOS CICLICOS (I)

 

4.1  Palabras‑código de un código cíclico

4.1.1 Generación de las palabras‑código.

4.1.2  Formación de los correctores.

4.2 Especificación  de las palabras‑código por las raíces del polinomio generador.

4.2.1  Polinomio minimal.

4.2.2  Polinomio generador de un código cíclico.

4.2.3  Polinomio ortogonal de un código cíclico.

4.2.4  Raíces del polinomio generador.

4.2.5  Matriz de control.

4.3  Corrección de errores.

4.3.1  Propiedades de la matriz de control.

4.3.2  Calculo de los correctores.

4.4 Circuitos   codificadores y decodificadores polinómicos.

4.4.1  Codificación por circuitos de multiplicación.

4.4.2  Codificación por circuitos de división.

4.5  Codificación por registros de desplazamientos.

4.5.1  Codificación por registros de desplazamientos.

4.5.2  Decodificación por registros de desplazamientos.

 

 BIBLIOGRAFÍA: [SPAT‑70]  [GONZ‑81]  [ROUB‑70]  [OSWA‑86]    [POLI‑88]

 

 


    MODULO IV:MENSAJES CONFIABLES Y CANALES  NOCONFIABLES.

 

 

                                 TEMA IV.1

 

         MENSAJES CONFIABLES TRANSMITIDOS POR CANALES NO CONFIABLES

 

1.1  Introducción.

1.2 Principios  generales de   la codificación y decodificación.

1.3  Limite de fano.

1.4  Mensajes confiables y canales no confiables.

1.5 Relación  entre la probabilidad de error y la equivocación.

1.6  Regla óptima y regla de máxima verisimiltud.

 

 BIBLIOGRAFIA: [OSWA‑86]  [ABRA‑86] [HERN‑67]

 

 

                      TEMA IV.2

 

 

                 SEGUNDO TEOREMA DE SHANNON

 

2.1  Confiabilidad y velocidad de transmisión de un canal.

2.2  Modelo geométrico de Hamming.

2.3  Segundo teorema de Shannon aplicado a un C.B.S.

2.4  Codificación al azar.

2.5 Segundo teorema de Shannon: caso general.

 


 

PRACTICAS


 1.- Entropía del Lenguaje
2.- Estructura del Lenguaje
 

3- Simulación y comparación de los métodos de codificación de Shannon y de Shannon-Fano

4.- Aplicación del Método de Huffman a la Compresión de texto
5.- Aplicación del Método de Huffman a la Compresión de Imágenes
6.- Simulación del Código Cíclico y del Código Lineal de Hamming


 


 

 
EVALUACIÓN
Los criterios para superar la asignatura son los siguientes:
1.- La realización y entrega de trabajos prácticos es condición necesaria para supeerar la asignatura
2.- Loa trabajos  y practicas tendrán un peso del 30% sobre la nota final
3.-Para l aprobar por curso es necesario haber superado el examen final de la asignatura  
   

[ Anterior | Inicio ]

HORARIO
  Lunes Martes Miercoles Jueves Viernes Sabado
Mañana     10.30-11.30  10.30-11.30 


      12.30-14.30

 


BIBLIOGRAFÍA

 
 

[ABRA-86]    Abramson N., Teoría de la Información y de la CODIFICACIÓN, Paraninfo, Madrid., 1986.

[ASH-90]       Ash R., Information Theory, Dover Publications Inc., New Yory, 1990.

[BERL84]      e. Berlekamp, Algebraic Coding Theory, McGraw Hill ,1984

[CULM-75]    g. Cullman Initiation aux Chanes de Markov", m&aacuta;sson 1975

[BLAH-87]    Blahut R.E., "Principles and Practice of Information Theory". Addison-Wesley Publishing Company. New York. 1987.

[CULL-76]     Cullmann G.,Denis-Papin M., Ejercicios de Calculo Informaciónal , URMO Edic. Bilbao., 1976.

[DANG-84]    Dang H. , Coding Theory , Seul (1984)

[FANO-61]    Fano R., Transmission of Information. MIT Press et John Wiley and Sons N.Y.,1961.

[GIL-81]        Gil Alvarez P., Teoría matemática de la Información , ICE Ediciones, Madrid, 1981.

[GONZ-81]    Gonzalo Cuevas A., Teoría de la Información y de la Codificación, Depto. Publicaciones de la Facultad de Informatica, Madrid., 1981

[HAMM-80]  Hamming,R.W.,Coding and Information Theory, Prentice-Hall, Englewood Cliffs, NJ, 1980.

[HERN-67]    Hernando Rabanos J., Introducción Teoría de la Información y de la Codificación ,Depto. Publicaciones de la E.T.S.I.T , Madrid., 1967.

[HELD-91]    Held, G. Data Comprenssion, Jhon Wiley & Sons 1991.

[LIN-83]        Lin, S.,Costello, D.J. Error Control Coding: Fundamental and Apllliations Prentice-Hall, 1983.

[LEVE-77]     Le Veque,W.J.,Fundamentals of Number Theory , Addison Wesley, Rading, m&aacuta;ss,1977.

[LLOR-86]     LLoren Uguet R. Teoría matemática de la Información y de la Codificación. Edt. Asociación Espaola de Informática y Automatica., Madrid.,1986.

[MCEL-77]    McEliece The Theory of information and Coding, Addison Wesley Plublishing Company, 1977.

[OSWA-86]    Oswald J., Theorie de l'Information ou Analyse Diacritique des Systems ,m&aacuta;sson Press , Paris, 1986

[PETE-74]     Peterson W.W., "códigos Corectores de Errores" en matemáticas en las Ciencias del Comportamiento Alianza Editorial , pp. 1974.

[RIFA-91]      Rifa J.,Huguet L. Comunicacion Digital : Teoría matemática de la Información. CODIFICACIÓN Algebraica , Criptologia Ed. m&aacuta;ssom, barcelona 1991.

[ROUB-79]    Roubine E., "Theorie de L'Information" en Introduction a la Theorie de la Communication, Tomo III, m&aacuta;sson Press , Paris, 1970

[SING-76]      Singht, J., Ideas Fundamentales sobre Teoría de la Información, del Lenguaje y de la Cibernetica, Editiorial, alianza Universidad. 1976.

[SPAT-70]      Spataru A., Theorie de la Transmission de l'Information , m&aacuta;sson Press, Paris, 1970.

[VANT-82]    Van Lint Introduction to Coding Theory Gradute Tests on Mathematics, Springer-Verlag, New York 1982.

[YUNG- ]       Yung Thee M. Error nCorrecting Coding Theory McGraw-Hill. New York.

 

Bibliografía adicional:

 

 

1 ASH,R 1990 INFORMATION THEORY

2 BELL T.C., ET AL. 1990 TEXT COMPRESSION

3 BERLEKAMP 1984 ALGEBRAIC CODING THEORY

4 BLAHUT,R.E. 1987 PRINCIPLES AND PRACTICE OF INFORMATION THEORY

5 BLAHT,R.E. 1983 THEORY AND PRCTICE OF ERROR CONTROL CODES

6 CLAVIER,J.NIQUIL.. 1977 THEORIE ET THECHIQUES DE LA TRANSMISION DES DONNEEES  

8 FELER W. 1975 INTRODUCCION A LA TEORIA DE PROBABILIDADES Y SUS APLICACIONES

9 HAMMING,R.W. 1980 CODING AND INFORMATION THEORY

10 HELD,D. 1991 DATA COMPRESSION

11 HILL, R. 1986 FIRTS COURSE IN CODING THEORY

12 LINS S.,COSTELLO D. 1983 ERROR CONTROL CODING: FUNDAMENTALS AND APPLICATIONS

13 MACWILLIANS F.J. 1977 THE THEORY OF ERROR CORRECTING-CODES

14 MCELIECE,R.J. 1977 THE THEORY OF INFORMATION AND CODING

15 PETERSON,W.W. 1972 ERROR CORRECTING CODES

16 RHEE,M.Y. 1989 ERROR CORRECTING CODES

17 ROSIE,A.M. 1971 THEORIE DE L´INFORMTAION AND DE LA COMMUNICATION

18 SLEPIAN,D. 1974 KEY PAPERS IN THE DEVELOPEMENT OF INFORMATION THEORY

19 STORER,J.A. 1988 DATA COMPRESSION

20 VAN LINT,J. 1982 INTRODUCTION TO CODING THEORY

21 WELSH,D. 1989 CODES AND CRYPTOGRAPHY

22 RAO-FUJIWARA 1989 ERROR-CONTROL CODING FOR COMPUTER SYSTEMS

 

 

 


[ Anterior | Inicio ]

Equipo Docente


Manuel González Rodríguez
TEL: 928458726
Fax: 928458711

mgonzalez@dis.ulpgc.es

Edificio Informática y Matemáticas
Campus de Tafira
358717

www.dis.ulpgc.es

 

TRANSPARENCIAS DE CLASE

1.- Programa de la asignatura

  TEMA I.1 NOCIONES BÁSICAS DE INFORMACIÓN. TRANSMISIÓN DE LA INFORMACIÓN
TEMA I.1 NOCIONES ÁSICAS DE INFORMACIÓN. TRANSMISIÓN DE LA INFORMACIÓN (POWER POINT)

2.-1 Tema I.1.2 MEDIDA DE LA CANTIDAD DE INFORMACIÓN EN EL CASO DISCRETO

3.- Tema I.1.3  TRATAMIENTO DE LA INFORMACIÓN

  TEMA II.1 FUENTES DE INFORMACIÓN DISCRETAS DE MEMORIA NULA

TEMA II. FUENTES DE INFORMACIÓN DISCRETAS CON MEMORIA

 TEMA II.3 CANALES DE  INFORMACIÓN DISCRETOS Y  TEMA II.4  PARÁMETROS ASOCIADOS A UN CANAL DISCRETO

TEMA III.1 PROPIEDADES DE LOS CÓDIGOS Y TEMA III.2 CODIFICACIÓN DE LA INFORMACIÓN PARA CANALES SIN PERTURBACIONES

TEMA III.3 CODIFICACIÓN   DE   LA   INFORMACIÓN    PARA  CANALES   CON  PERTURBACIONES. CÓDIGOS DETECTORES Y CORRECTORES DE ERRORES

TEMA III.4 CODIGOS CICLICOS

 


Ti _ códigos-lineales.pdf

TEMAS DE CLASE

1.- TEMA 1.1 NOCIONES BÁSICAS DE INFORMACIÓN. TRANSMISIÓN DE LA INFORMACIÓN

TEMA I.2 MEDIDA DE LA CANTIDAD DE INFORMACIÓN EN EL CASO DISCRETO

TEMA I.3 TRATAMIENTO DE LA INFORMACIÓN

TEMA 2.1 FUENTES DE INFORMACIÓN DE MEMORIA NULA

TEMA II.2 FUENTES DE INFORMACIÓN DISCRETAS CON MEMORIA

 TEMA II.3 CANALES DE  INFORMACIÓN DISCRETOS

TEMA III.1 PROPIEDADES DE LOS CÓDIGOS

TEMA III.3 CODIFICACIÓN   DE   LA   INFORMACIÓN    PARA  CANALES   CON  PERTURBACIONES. CÓDIGOS DETECTORES Y CORRECTORES DE ERRORES

TEMA III.3 CÓDIGOS LINEALES Y MATRIZ DE CONTROL

TEMA III.4 CÓDIGOS CÍCLICOS-1

TEMA III.4 CÓDIGOS CÍCLICOS-2

TEMA IV.1 SEGUNDO TEOREMA

 

ALUMNOS
Preactas Septiembre 04/05

NOTAS FINALES 04/05

PREACTAS 04/05

NOTAS FEBRERO 04/05

NOTAS DICIEMBRE 2004

NOTAS FEBRERO 03/04

NOTAS RECUPERACION 03/04

NOTAS SEPTIEMBRE 03/04

Notas Finales 02/03

Prácticas
EXAMENES
 

NUEVOS APUNTES

3.2 Canales de Comunicación