miércoles, 23 de noviembre de 2011

Taza de información

 
Puede haber varias fuentes que tengan la misma entropía pero que cada una de ellas sean mas rápidas que las demás y que por lo tanto, al entregar mas  simbolos por unidad de tiempo introducirá en el canal de comunicaciones describiremos a una fuente a través de LA TAZA DE INFORMACION   

T= H (x)/ T
T= H (x) VM          vm= 1/c

La entropía

 
Fuente de memoria Nula:
 Es toda fuente que  emite símbolos que son estadísticamente independientes.Esta fuente puede emitir símbolos cada uno de ellos con cierta probabilidad  asociada  donde  para cada valor de un símbolo (variable aleatoria) tendremos asociado un valor de probabilidades ( ).
X1; p (x1)
Definición de entropía
Sea  una variable aleatoria xk→(x1-x2-x3-……..)
La esperanza matemática de la variable aleatoria será (entropía).
H= -1/3 log2 + ¼ log 2
La entropía(h) representa LA INSERTIDUMBRE MEDIA de la ocurrencia de cada símbolo.

Transmision

Transmisión asincrónica
Se utiliza para asegurar la transmisión entre un computador y sus terminales, cada carácter a transmitir es delimitado por 1 bits denominado de cabeza o de arranque y 1º2 bits denominado de cabeza de terminación.
El bits de arranque tiene la función de a sincronizar los relojes del transmisor y del receptor el bits de determinación se usan para separar 1 carácter, antes de que el sistema se active la línea siempre se encuentra en estado de tensión máxima. Indica donde empieza el carácter.
Corresponde  a una señal de mínima tensión en la línea.
El bits o ,los bits de terminación se encargan de volver o colocar la señal en el nivel máximo para esperar el byte siguiente, no vuelve a reenviarse 1 bits de arranque quedara en reposo en el nivel máximo hasta que vuelva a aparecer una señal de nivel minimo.
En caso de errores se pierde siempre una cantidad pequeña de caracteres ya que estos se sincronizan y se transmiten de 1 en1.
Transmisión sincrónica
La necesidad de obtener una mayor proporción de bits utiles(lo que contiene información) respecto de la cantidad total de información transmitida se pensó en la posibilidad de usar menos cantidad de bits para el proceso de desincronización  del emisor y receptor de esta manera aumentaría la cantidad de bits útiles en el total transmitido.

Sincronismo:

 
Procedimiento mediante el cual tanto la fuente como el colector de los datos adoptan una base de tiempo, entre transmisor y receptor.
Sincronismo de bit: es el procedimiento que se usa para determinar exactamente el momento en que se debe empezar a contar 1 bit.
Sincronismo de byte: procedimiento  que se usa para determinar cuando comienza el byte(carácter) y cuando termina.
Sincronismo de bloque: procedimiento que se usa para determinar el conjunto de caracteres que se considerara a los efectos de tratamiento de errores.

Medidas de la compresión de datos:

Indice de compresión: numero que resulta de dividir kla longuitud original de un conjunto de datos(medidos en bits o byte)
C= longitud original de un conjunto de datos / longitud comprimida del conjunto de datos
Factor de merito: es el numero que resulta de calcular la imbersa del índice de compresión.

R= 1 /C

Dibits

 
Se envían 2 unidades de información (BAUDIOS).
La velocidad de modulación no varía pero transmite el doble de información. 
La compresión de datos.actua sobre un circuito teleinformatico de la misma manera que las señales multinivel  ya que mejora la velocidad de transmisión:

Transmisión Multinivel

 
Un aumento de la velocidad de modulación sin aumento del ancho de banda hace que la taza de errores aumente y a veces puede llegar a ser tan elevados que hace que la comunicación sea inútil.
Los 2 procedimientos técnicos utilizados.
-Transmisiones  multinivel:
-Sistemas de compresión de datos:
Estas técnicas aumentan la velocidad de transmisión sin aumentar la velocidad de modulación para evitar el aumento de la taza de errores.
Se denomina transmisión multinivel a aquella en la que el numero de niveles que puede tomar la señal es mayor que 2. Y se denomina binaria.