Lo anterior es muy evidente, dado que una de las claves de este modelo es el concepto de información, que adquiere en este contexto un significado muy preciso. No se trata de alguno de sus sentidos habituales, como noticia, dato o testimonio, sino de una magnitud estadística, abstracta, que califica el mensaje con absoluta independencia del significado que pueda tener para las personas que participan en una interacción. Se trata de una información ciega en el contexto de un modelo telegráfico de la comunicación, tal como lo sostiene Yves Winkin, (1982).
27 de agosto de 2008
Alcances y Limitaciones
Es evidente que en su origen la propuesta de Shannon es completamente ajena a la comunicación desde una perspectiva social. Aquí no están directamente comprometidas ni personas ni grupos. No hay interacciones, influencias, emociones, percepciones, aprendizajes u otros elementos de carácter psicosocial. No aparecen variables de tipo situacional, como tampoco aparece la cultura en ninguna de sus manifestaciones.
La teoría de la información es con toda propiedad una teoría de la transmisión, bien adaptada para responder a los requerimientos técnicos de una empresa telefónica, pero incapaz de servir de marco explicativo para una experiencia social como es la comunicación interpersonal.
Lo anterior es muy evidente, dado que una de las claves de este modelo es el concepto de información, que adquiere en este contexto un significado muy preciso. No se trata de alguno de sus sentidos habituales, como noticia, dato o testimonio, sino de una magnitud estadística, abstracta, que califica el mensaje con absoluta independencia del significado que pueda tener para las personas que participan en una interacción. Se trata de una información ciega en el contexto de un modelo telegráfico de la comunicación, tal como lo sostiene Yves Winkin, (1982).
Lo anterior es muy evidente, dado que una de las claves de este modelo es el concepto de información, que adquiere en este contexto un significado muy preciso. No se trata de alguno de sus sentidos habituales, como noticia, dato o testimonio, sino de una magnitud estadística, abstracta, que califica el mensaje con absoluta independencia del significado que pueda tener para las personas que participan en una interacción. Se trata de una información ciega en el contexto de un modelo telegráfico de la comunicación, tal como lo sostiene Yves Winkin, (1982).
En la actualidad prácticamente no se encuentra un texto especializado de orientación social en que no se aborde críticamente el examen de esta teoría. Yves Winkin resume la posición de los autores de la universidad invisible, que incluye a pensadores tan prestigiosos como Gregory Bateson, Ray Birdwhistell, Edward Hall, Erving Goffman, Don Jackson y Paul Watzlawick, mostrando su clara coincidencia abandonar este modelo. Winkin resume las cosas del siguiente modo:
Dicho consenso se funda en una oposición a la utilización en las ciencias humanas del modelo de la comunicación de Shannon. Según estos investigadores, la teoría de Shannon ha sido concebida por y para ingenieros de telecomunicaciones, y hay que dejárselas a ellos. La comunicación debe estudiarse en las ciencias humanas según un modelo que le sea propio.
Estos investigadores estiman que la utilización del modelo de Shannon en lingüística, antropología o psicología ha conducido al resurgimiento de los presupuestos clásicos de la psicología filosófica sobre la naturaleza del hombre y de la comunicación. Según ellos, la concepción de la comunicación entre dos individuos como transmisión de un mensaje sucesivamente codificado y después decodificado, reanima una tradición filosófica en la que el hombre se concibe como un espíritu enjaulado en un cuerpo, que emite pensamientos en forma de ristras de palabras. Esas palabras salen por un orificio ad hoc y son recogidas por embudos igualmente ad hoc, que las envían al espíritu del interlocutor, el cual las analiza y extrae su sentido. Según esta tradición, la comunicación entre dos individuos es, pues, un acto verbal, consciente y voluntario.
Comunicación entre máquinas y seres humanos
Este modelo también se puede ver reflejado en nuestro acontecer cotidiano de cómo las máquinas se comunican con nosotros y viceversa, por ejemplo cuando los ordenadores nos mencionan alguna accion que realizaron o un problema que hayan detectado mientras hacemos nuestras labores diarias.
Y como en realidad ahorar es tan común casi no percibimos este tipo de comunicación entre nosotros y la máquina.
Otro ejemplo cotidiano sería en nuestro automóvil que nos manda mensajes o señaes cuando hay un problema identificado para corregirlo mediante el tablero que nos avisa cuando le hace falta alguna sustancia vital para evitar algún desperfecto. (como cuando el nivel de aceite o gasolina es bajo).
Y como en realidad ahorar es tan común casi no percibimos este tipo de comunicación entre nosotros y la máquina.
Otro ejemplo cotidiano sería en nuestro automóvil que nos manda mensajes o señaes cuando hay un problema identificado para corregirlo mediante el tablero que nos avisa cuando le hace falta alguna sustancia vital para evitar algún desperfecto. (como cuando el nivel de aceite o gasolina es bajo).
Ejemplo con humor
Este es un ejemplo de cómo las máquinas ayudan a mejorar la comunicación, usando un ejejmplo humorístico del Auto Increible que explica de manera más puntual lo que había aportado Shannon con respecto a la comunicación entre máquinas y la comunicaciíon interpersonal. Así como la comunicación entre seres humanos y máquinas.
Comunicación entre máquinas
El modelo que desarrolló Shannon en los años 40's, se aplica perfectamente a la comunicación que existe entre máquinas con la ayuda de la Teoría Matemática. Esto se podía ver en diferentes dispositivos de comunicación de aquella época con fine bélicos hasta llegar a los ordenadores que conocemos hoy en día a partir del sistema binario que rige a las computadoras.
En la actualidad podemos establacer una comunicación casi perfecta a distancia a través de las computadoras y soportes multimedia, con la ayuda de internet y sofware como messenger y otros programas para dichas funciones..
O simplemente en la vida cotidiana con mensajería de telefonos móviles que hacen que la comunicación interpersonal sea un poco más sofisticada aunque tenga sus limitantes.
Ruido
Se denomina ruido a cualquier perturbación experimentada por la señal en el proceso de comunicación, es decir, a cualquier factor que le dificulte o le impida el afectar a cualquiera de sus elementos.
Las distorsiones del sonido en la conversación, en radio, televisión o por teléfono son ruido, pero también es ruido la distorsión de la imagen de la televisión, la alteración de la escritura en un viaje, la afonía del hablante, la sordera del oyente, la ortografía defectuosa, la distracción del receptor, el alumno que no atiende aunque este en silencio..
Para evitar o paliar la inevitable presencia del ruido en la comunicación es habitual introducir cierta proporción de redundancia en la codificación del mensaje.
Decodificación
Codificación
La codificación de caracteres, es el método que permite convertir un carácter de un lenguaje natural, en un símbolo en otro sistema de representación, como un número o una secuencia de pulsos eléctricos en un sistema electrónico, aplicando normas o reglas de codificación.
La Codificación consiste en establecer una correspondencia entre cada uno de los símbolos de un alfabeto fuente y una secuencia de símbolos de una alfabeto destino. Al alfabeto destino se le denomina alfabeto código y a cada una de las secuencias de símbolos de este alfabeto que se corresponda con un símbolo del alfabeto fuente se denomina palabra de código.
Se debe de recordar que todo código tiene la característica de ser arbitrario, porque tiene la característica de ser determinado y adecuado para una sociedad, un tiempo específico, donde todo parte de una convención.
Redundancia o recurrencia
Uso técnico Factor de la comunicación que consiste en intensificar y repetir la información contenida en el mensaje a fin de que el factor de la comunicación ruido no provoque una pérdida fundamental de información.
Uso en la lengua En el lenguaje constituye una forma de asegurar la transmisión y de establecer concordancias entre los elementos lingüísticos en los niveles morfosintácticos, léxico-semánticos y fónicos. En los lenguajes literarios es especialmente elevada a fin de asegurar la perdurabilidad del mensaje y la impresión en la memoria y la imaginación merced al placer estético que ocasiona. Se encuentra especialmente en el refranero, el lenguaje publicitario y en la literatura de sesgo tradicional.
Entropía
Entropía es un concepto que se aplica en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer esto aparente. Esta entropía se llama frecuentemente entropía de Shannon, en honor a Claude E. Shannon.
El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros sí lo son (como la 'a'), la cadena de caracteres no será tan "aleatoria" como podría llegar a ser.
Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 A Mathematical Theory of Communication ("Una teoría matemática de la comunicación", en inglés). Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:
- La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.
- Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima.
Información
En sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenómeno.
Según otro punto de vista, la información es un fenómeno que proporciona significado o sentido a las cosas, e indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. La información por tanto, procesa y genera el conocimiento humano. Aunque muchos seres vivos se comunican transmitiendo información para su supervivencia, la diferencia de los seres humanos radica en su capacidad de generar y perfeccionar tanto códigos como símbolos con significados que conformaron lenguajes comunes útiles para la convivencia en sociedad, a partir del establecimiento de sistemas de señales y lenguajes para la comunicación.
Conceptos claves
Estos son los conceptos claves que se manejan dentro de la teoría de la información:
- Información
- Entropía
- Redundancia
- Codificación
- Decodificación
- Ruido
Proceso comunicativo entre personas
Dentro de esta teoría se desarrollo un concepto de comunicación entre dos personas la cual trata de desarrollar este concepto fuera de las ideas de comunicacion a nivel maquina:
Cuando hablamos a alguien “una parte del cerebro , situada en la corteza , hace de fuente; otra parte situada en la zona temporal del hemisferio izquierdo , hace de codificador. Los impulso procedentes del centro de codificación modulan progresivamente la energía acústica, producida por un aparato que comprende sistema muscular, aparato respiratorio y aparato de fonación. La energía modulada estransportada a través de una vía constituida por el aire , y es captada por un receptor…(Escarpit, 1976: 30-31)
Sin embargo las críticas hacia la teoría de la información han ido surgiendo por todas partes. En Europa el lingüista Bernard Rimé de la Universidad de Lovaina, asociado a las investigaciones del psicólogo social Serge Moscovici y a la Escuela de Ginebra, formula el siguiente planteamiento:
Este modelo sirvió de base al estudio psicológico del lenguaje y de la comunicación, llevado a cabo desde 1952 con el nacimiento de la psicolingüística. Sin embargo, presenta un límite que implicará graves consecuencias para la orientación de estos trabajos. Inspirado en las máquinas, este modelo hará que los investigadores desprecien el hecho de que la fuente y el destinatario son los seres humanos y que entre ellos, en la comunicación, se establece una relación psicosocial. Los psicolingüístas han puesto entre paréntesis la cuestión del locutor, del auditor y de la interacción de sus expectativas, características, actitudes, intereses y motivaciones, para preocuparse únicamente de las operaciones de codificación y desciframiento.
En el enlace de la psicolinguística se muestrea una introducción a esta materia asi como información relacionada con el tema.
Existen tres diferentes procesos comunicativos que se pueden
desarrollar dentro de esta teoría según Shannon y Weaver:
desarrollar dentro de esta teoría según Shannon y Weaver:
A) Se reproduce entre dos máquinas
(termostato-autoregulación);
(termostato-autoregulación);
B) Se reproduce entre dos seres humanos;
C) Se reproduce entre una máquina y un
ser humano.
ser humano.
Para el primer caso, tal como fue concebido, este modelo no se refiere a las personas como protagonistas de la comunicación, sino al proceso desde la perspectiva de sus aspectos mensurables, al estudio de las condiciones idóneas de transmisión de información entre máquinas; y al cálculo del volumen o pérdida de la información transmitida a través de un canal. Nada de esto, sin embargo, restó energía al sociólogo Weaver ni impidió su popularización y posterior aplicación para representar distintas expresiones de la comunicación humana. Su esquema simple, de fácil adaptación, y su apariencia de objetividad, abrieron las puertas para una divulgación exitosa. Esto se expresó en forma manifiesta en la adopción amplia de su terminología, y como una contribución a la forma analítica y descontextualizada de interpretar el proceso de la comunicación.
Weaver ha forzado las cosas hasta un punto difícil de aceptar. Hablar de un aparato telefónico como transmisor y de un cable como canal, es muy coherente en un contexto ingenieril. El teléfono efectivamente transforma la presión del sonido de la voz en una señal eléctrica, y gracias a esto se produce la comunicación a distancia desde un punto de vista técnico. Pero homologar esos elementos, por ejemplo, por el "sistema vocal" o el "octavo par de nervios craneanos", es un paso arriesgado. Privilegiar los problemas de codificación, magnitud de la información y capacidad del canal, es poner la experiencia de la comunicación por debajo de su complejidad y riqueza.
Weaver ha forzado las cosas hasta un punto difícil de aceptar. Hablar de un aparato telefónico como transmisor y de un cable como canal, es muy coherente en un contexto ingenieril. El teléfono efectivamente transforma la presión del sonido de la voz en una señal eléctrica, y gracias a esto se produce la comunicación a distancia desde un punto de vista técnico. Pero homologar esos elementos, por ejemplo, por el "sistema vocal" o el "octavo par de nervios craneanos", es un paso arriesgado. Privilegiar los problemas de codificación, magnitud de la información y capacidad del canal, es poner la experiencia de la comunicación por debajo de su complejidad y riqueza.
La comunicación de Weaver
Estos son algunos aspectos que componen un sistema de comunicación, los cuales Weaver describe de la siguiente manera:
La fuente de información seleccionada a partir de un conjunto de posibles mensajes el mensaje deseado. El transmisor transforma el mensaje en una señal que es enviada por el canal de comunicación al receptor.
El receptor hace las veses de un transmisor invertido que cambia la señal transmitida en el mensaje y pasa este mensaje a su destinatario .Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el destinatario, el sistema vocal es el transmisor, y su oído, con su octavo par de nervios craneados, es el receptor.
Infortunadamente, es características del proceso de transmitir la señal que se agreguen en esta ciertas cosas que no son proporcionadas deliberadamente por la fuente de información. Estos aditamentos indeseados pueden ser distorsiones de sonido (en telefonía, por ejemplo),o estáticos (en radiotelefonía),distorsiones de la forma o forma sombreada de una imagen (televisión), o errores de transmisión (telegrafía). Todos estos cambios en la señal pueden ser llamados ruidos.
Los problemas que han de estudiarse de un sistema de comunicación tiene que ver con la cantidad de información, la capacidad del canal de de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje de una señal y efectos del ruido.
A lo largo de este movimiento orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguido en forma precisa, por su ubicación y su función.
El receptor hace las veses de un transmisor invertido que cambia la señal transmitida en el mensaje y pasa este mensaje a su destinatario .Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el destinatario, el sistema vocal es el transmisor, y su oído, con su octavo par de nervios craneados, es el receptor.
Infortunadamente, es características del proceso de transmitir la señal que se agreguen en esta ciertas cosas que no son proporcionadas deliberadamente por la fuente de información. Estos aditamentos indeseados pueden ser distorsiones de sonido (en telefonía, por ejemplo),o estáticos (en radiotelefonía),distorsiones de la forma o forma sombreada de una imagen (televisión), o errores de transmisión (telegrafía). Todos estos cambios en la señal pueden ser llamados ruidos.
Los problemas que han de estudiarse de un sistema de comunicación tiene que ver con la cantidad de información, la capacidad del canal de de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje de una señal y efectos del ruido.
A lo largo de este movimiento orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguido en forma precisa, por su ubicación y su función.
Fuente: Componente de naturaleza humana o mecánica que determina el tipo de mensaje que transmitirá y su grado de complejidad.
Transmisor: Recurso técnico que transmite el mensaje originado por la fuente de información en señales apropiadas.
Canal: Medio generalmente físico que transporta las señales en el espacio .Cumple una función simple de mediación y transporte.
Ruido: Expresión genérica utilizada para referirse a varias distorsiones en forma externa de la información.
Receptor: Recuso técnico que trasforma las señales recibidas en el mensaje concebido por la fuente de información.
Destino: componente terminal del proceso de comunicación, al cual esta dirigido el mensaje. Es el elemento decisivo para pronunciarse sobre la fila fidelidad de la comunicación.
A poco andar estos términos pasaron a formar parte de la jerga comunicacional y aun del lenguaje corriente, desarrollado en una existencia propia, con independencia del marco explicativo en que tuvieron origen. Su representación grafica se ha usado una y otra vez agregando o quitando algún elemento, pero siempre manteniendo su apego a una estricta casualidad lineal.
Del mundo de los cables telefónicos se salto a las interacciones humanas sin demasiadas precauciones; y corresponde sin duda a Warren Weaver el mérito de haber sacado esta teoría desde los restringidos límites de la dimensión técnica, dotándola de universalidad.
Éste se aplica en la primera instancia solo al problema técnico, pero la teoría tiene una significación mas amplia. Para comenzar, el significado y la efectividad están inevitablemente registrados por los límites teóricos de la exactitud en la transmisión de símbolos. Más aun, el análisis teórico del problema técnico pone en evidencia que este se superpone a los problemas semánticos y de la efectividad más de lo que se podría sospechar. Weaver alude concretamente a los tres niveles en que tradicionalmente se abordan los problemas de la comunicación:
Del mundo de los cables telefónicos se salto a las interacciones humanas sin demasiadas precauciones; y corresponde sin duda a Warren Weaver el mérito de haber sacado esta teoría desde los restringidos límites de la dimensión técnica, dotándola de universalidad.
Éste se aplica en la primera instancia solo al problema técnico, pero la teoría tiene una significación mas amplia. Para comenzar, el significado y la efectividad están inevitablemente registrados por los límites teóricos de la exactitud en la transmisión de símbolos. Más aun, el análisis teórico del problema técnico pone en evidencia que este se superpone a los problemas semánticos y de la efectividad más de lo que se podría sospechar. Weaver alude concretamente a los tres niveles en que tradicionalmente se abordan los problemas de la comunicación:
Técnico
Semántica
Pragmático
Semántica
Pragmático
Cada nivel se abre en una sola dimensión de análisis e interpretación diferentes. En el nivel técnico se enfrentan problemas relacionados a la fidelidad con que cierta información puede ser transmitida desde un emisor aun receptor, en el nivel semántica se estudian cuestiones relativas al significado e interpretación de un mensaje; y en el nivel pragmático se enfoca la comunicación desde el punto de vista de sus consecuencias en el comportamiento manifiesto de las personas.
Modelo de Shannon-Weaver
La teoría de la información, fue formulada a finales de los 40 por el ingeniero Claude E. Shannon. En su intención original esta teoría es de un alcance muy acotado, debido a que se refiere solo a las condiciones técnicas que la transmisión de mensajes, pero eso no impidió que lograra una amplia repercusión y terminara elevada a la calidad paradigma. Su primera versión apareció en el Bell System Technical Journal de octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización a la que Shannon se encontraba procesionalmente ligado.
Poco después el sociólogo Warren Weaver redacto un ensayo destinado a enfatizar las bondades de esta propuesta, que fue publicado junto al texto anterior en julio de 1949. El trabajo de shannon se titula The Mathematical Theory of comunication. En conjunto dieron lugar a un pequeño libro que tomo el titulo del primero de ellos. De este modo, la unión de dos disciplinas diferentes produjo una obra de referencia duradera en el campo de la comunicación. Lo habitual es que se aluda a estas concepciones como el modelo de Shannon y Weaver o como la teoría de la información.
El especialista norteamericano Bernal Berlson en una revisión sobre el estado de la investigación, ubicada tempranamente esta teoría dentro de un grupo de “aproximaciones menores”, para diferenciarlos de las grandes líneas que han determinado la orientación de los estudios. Es te calificativo implica poner de manifiesto su influencia sobre la evolución posterior de la investigación comunicacional.
En lo que se refiere al desarrollo teórico, en el área esta afirmación puede ser aceptada.
Efectivamente la teoría de la información no se a mostrado muy fértil en cuanto a estimular nuevos desarrollos teóricos, pero su conciencia o su propiedades heurísticas. No son pocas las ocasiones en que determina dad interpretaciones, convertidas en creencias de cómoda asimilación, adquieren respaldo y notoriedad, sin que loa meritos les permitan superar las barreras de una critica mas cuidadosa y exigente.
Poco después el sociólogo Warren Weaver redacto un ensayo destinado a enfatizar las bondades de esta propuesta, que fue publicado junto al texto anterior en julio de 1949. El trabajo de shannon se titula The Mathematical Theory of comunication. En conjunto dieron lugar a un pequeño libro que tomo el titulo del primero de ellos. De este modo, la unión de dos disciplinas diferentes produjo una obra de referencia duradera en el campo de la comunicación. Lo habitual es que se aluda a estas concepciones como el modelo de Shannon y Weaver o como la teoría de la información.
El especialista norteamericano Bernal Berlson en una revisión sobre el estado de la investigación, ubicada tempranamente esta teoría dentro de un grupo de “aproximaciones menores”, para diferenciarlos de las grandes líneas que han determinado la orientación de los estudios. Es te calificativo implica poner de manifiesto su influencia sobre la evolución posterior de la investigación comunicacional.
En lo que se refiere al desarrollo teórico, en el área esta afirmación puede ser aceptada.
Efectivamente la teoría de la información no se a mostrado muy fértil en cuanto a estimular nuevos desarrollos teóricos, pero su conciencia o su propiedades heurísticas. No son pocas las ocasiones en que determina dad interpretaciones, convertidas en creencias de cómoda asimilación, adquieren respaldo y notoriedad, sin que loa meritos les permitan superar las barreras de una critica mas cuidadosa y exigente.
26 de agosto de 2008
Teoría de la información
¿QUÉ ES LA TEORÍA DE LA INFORMACIÓN?
La Teoría de la Información es una teoría matemática creada por Claude Shannon en el año 1948 y que forma la piedra angular sobre la que se ha desarrollado toda la teoría actual de la comunicación y la codificación. Esta teoría establece los límites de cuánto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. La Teoría de la Información es, por tanto una teoría de límites alcanzables: máxima compresión de datos y máxima tasa de transmisión de información transmitida sin errores. Las aplicaciones de esta teoría son enormes y abarcan desde las ciencias de la computación (criptografía, aprendizaje), la ingeniería eléctrica (Teoría de la comunicación y teoría de la codificación), la estadística o la biología (secuencias de ADN, código genético). También estudia el hecho de que la información es algo que inevitablemente necesita un soporte físico sobre el que manifestarse. Siguiendo este estudio de la física de la información, la teoría termina estudiando las diferencias entre la información clásica ("bit clásico") y la información cuántica ("bit cuántico"). Los avances tecnológicos actuales y futuros harán que la informática trabaje con este nuevo tipo de información. La criptografía cuántica se muestra actualmente como una de las aplicaciones más prometedoras dentro de la Teoría de la Información cuántica.
Warren Weaver
Matemático americano nacido en Reedsburg, Wisconsin, que creó la expresión biologia molecular para designar el trabajo conjunto de la biologia, física y química en busca del conocimiento de las moléculas que actuan en el interior de las células (1939). Estudió en la Universidad de Wisconsin, inicio su carrera profesional como docente en Throop College de Pasadena (1917-1918) y en el California Institute of Technology (1919-1920), antes de regressar para la Universidad de Wisconsin, donde fue profesor de matemáticas durante doce años y director del Departamento de Matemáticas (1928-1932). Despues se convirtió en un notable investigador científico, especialmente como director del Rockefeller Foundation's Natural Science Division (1932-1955) y de otras fundaciones (1956-1978). Propuso técnicas estadísticas en el campo de la teoría de la información que pudieran ser usadas para permitir a las computadoras traducir textos automaticamente de un idioma a otro. Su propuesta estaba basada en un suposición en la que un documento en algun idioma humano pudiera ser visto como un escrito en código y, por lo tanto, pudiera ser codificado en otros códigos. Por esa razón es considerado la primera persona que propuso que los computadores eletrónicos podian traducir textos a idiomas naturales. Entre las numerosas condecoracioes que recibió está la medalla británica Cause of Freedom (1948), la de oficial de Legiao de Honra de Francia (1951), un premio de Kalinga por parte de la UNESCO (1964), asi como diversos doctorados honoris causa, entre ellos la de la Universidade de Sao Paulo (1952). Fue nominado presidente de la National Academy of Sciences (1954). También escribió, con Claude E. Shannon la obra de The Mathematical Theory of Communication (1949) y finalmente murió en New Milford.
Shannon
Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética.
Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa. Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por perdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de perdida de información.
La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology. (Claude Elwood Shannon; Gaylord, EE UU, 1916)
Suscribirse a:
Entradas (Atom)