Significado | Concepto | Definición:

En la teoría de la comunicación y la información , la codificación de fuentes distribuidas (DSC) es un problema crucial que describe la compresión de fuentes de información que están correlacionadas en múltiples pero no pueden comunicarse entre sí. DSC permite paradigmas de relación en la codificación de video que intercambian la complejidad de codificadores y decodificadores, lo que representa un cambio conceptual en el procesamiento de video. Se puede modelar una correlación con muchas fuentes entre los códigos de canal y los lados del decodificador, lo que permite que la codificación de fuente distribuida cambie la complejidad computacional entre el lado del codificador y el lado del decodificador. Esto proporciona un marco apropiado para aplicaciones que tienen un remitente que tiene una complejidad limitada, como una red de sensores o compresión de video .

DSC permite paradigmas de relación en la codificación de video que intercambian la complejidad de codificadores y decodificadores, lo que representa un cambio conceptual en el procesamiento de video.

Dos hombres llamados Jack K. Wolf y David Slepian propusieron un límite teórico de compresión sin pérdidas con respecto a la codificación de fuente distribuida, que ahora se denomina teorema o límite de Slepian-Wolf. El límite se propuso en términos de entropía con fuentes de información correlacionadas en el año 1973. Una de las cosas que pudieron presentar fue que dos fuentes separadas y aisladas pueden comprimir datos de manera eficiente y como si ambas fuentes se comunicaran directamente entre sí. Más tarde, en 1975, un hombre llamado Thomas M. Cover extendió este teorema a una instancia de más de dos fuentes.

En la codificación de fuente distribuida, múltiples fuentes dependientes se codifican con codificadores y decodificadores conjuntos separados. El teorema de Slepian-Wolf, que representa estas fuentes como dos variables diferentes, asume que dos señales separadas y correlacionadas provienen de diferentes fuentes y no se comunican entre sí. Estos son los codificadores y sus señales se transfieren a un receptor, que es el decodificador que puede realizar el proceso de decodificación conjunta de ambas señales de información. El teorema intenta resolver cuál es la tasa de probabilidad de que el receptor decodifique un error y se acerque a cero, lo que se representa como su entropía conjunta. Como Wolf y Slepian demostraron en 1973, incluso si las señales correlacionadas se codifican por separado, la velocidad combinada es suficiente.

Aunque este teorema postula teóricamente que esto se puede lograr en la codificación de fuente distribuida, los límites de la teoría no se han comprendido ni siquiera se han abordado de cerca en las aplicaciones prácticas. Otros dos científicos, Ramchandran y Pradhan, han intentado resolver cómo alcanzar este límite teórico y demostrar la plausibilidad del teorema de Slepian-Wolf. Intentaron esto proporcionando una solución particular para las dos señales codificadas que tienen una distancia de separación máxima.