Glosario (sp)‎ > ‎

Medida de la información || Information Measurement

Artículo

 
Esta columna solo debe ser modificada por el editor.
- Para nuevas entradas utilícese la columna de la derecha;
- Para hacer comentarios o discutir algún asunto relativo a este artículo úsese la sección de comentarios a pie de página.
- Pueden dejarse archivos que se consideren de interés para el artículo.
 
 Editor
Marcos, Alfredo
 Contribuciones incorporadas
 
 Ámbito de uso
 
 Tipo
 concepto
 Francés
 
 Alemán  
 

{texto del artículo que solo debe modificar el editor}

 
Referencias 
AUTOR, N. (año). “título de artículo”. Revista, Vol. xx, pp. yy–zz.
 
- AUTOR, N. (año). Título del libro. Lugar de edición: Editorial.

- AUTOR, N. (año). Título de la página web. [En línea]. Lugar de edición: Organismo responsable. <url de la página>. [Consulta: dia/mes/año de la consulta].
Entradas
J.M. Díaz Nafría (20/07/2009)
 
Informatividad o Medida de información semántica (Informativeness): En la aproximación probabilística a la información semántica proporcionada por un enunciado p, con objeto de lograr una medida que como la shannoniana fuera aditiva, con respecto a proposiciones inductivamente independientes y estuviera bien condicionada (lo cual no satisface la medida de →contenido semántico CONT(p)), Bar-Hillel y Carnap propusieron la medida:
donde P(p) es la denominada “probabilidad lógica absoluta” del enunciado p construido a partir de proposiciones atómicas (descripción de estado) en un determinado lenguaje formal.

En la aproximaciones cuantitativas a la información semántica Dretske, se recurre también a una medida formalmente análoga: I(s)=−log2P(s), donde la probabilidad se refiera a los estados de hechos observados.

En el caso de la aproximación modal, la información semántica portada por un enunciado p, en términos del espacio modal, corresponde al conjunto de todos los mundos posibles (o todas las descripciones de los estados posibles y relevantes del universo) excluidas por p.
En las aproximaciones de la semántica situacional (o sistemáticas), el →contenido informacional de p, aunque también se base en el espacio de estados y la consistencia,  no se determina mediante un cálculo a priori de todos los estados posibles permitidos por un lenguaje representacional, sino en términos del contenido factual portado por p respecto a una determinada situación.
 
Referencias

- BAR-HILLEL, Y. y CARNAP, R. (1953). “Semantic information”. British Journal of Science, vol.4, pp. 147-157.
- DRETSKE, F.I. (1981). Knowledge and the flow of information. Cambridge, MA: MIT Press.
- FLORIDI, L. (2005). “Semantic Conceptions of Information” en Stanford Encyclopedia of Philisophy, [En línea] <http://plato.stanford.edu/entries/information-semantic/> [Consulta: 10/07/2007]
 
 
Alfredo Marcos (02/09/2009)
 
Una medida general de la información
 
Las medidas estándar de la información estiman la capacidad informacional. Miden, por ejemplo, la capacidad de un soporte para almacenar información, o la de un sistema para procesarla o la de un mensaje para transmitirla, pero no nos dicen de hecho cuánta información se almacena, procesa o transmite. La razón es que esa cantidad es relativa: ¿cuánta información para qué receptor?, ¿acerca de qué? Es decir, la información es una relación triádica entre un evento, un receptor y un sistema de referencia. En el enlace subscrito se propone una medida general de la información apoyada en este concepto, se sugiere que dicha medida capta adecuadamente nuestra idea intuitiva de información, y se sostiene que las medidas estándar se pueden obtener a partir de la fórmula aquí propuesta aplicando restricciones sobre el tipo de receptor.
 
 
 
Alfredo Marcos (08/09/2009)
 
Apunte histórico I
El telégrafo comenzó a fraguarse durante un viaje que Morse hizo en 1832 entre Europa y Estados Unidos. Los textos pueden ser transmitidos en alfabeto normal desde 1874, y desde 1876, gracias al invento de Bell, se puede transmitir la voz. En 1897 Marconi realiza la primera transmisión telegráfica sin hilo.

Los ingenieros ya se habían percatado, a estas alturas, de que desplazar información de un lugar a otro supone un dispendio de tiempo y energía y, de modo más bien empírico, conocían que estos gastos, así como la fiabilidad de la transmisión, dependían de factores como la redundancia del código utilizado y la capacidad del canal. La transmisión de información requiere la de energía, pero la cantidad de información parece reve­larse como una magnitud independiente de la energ¡a.

Los nuevos objetivos son la rentabilidad y el rendimiento. Se trata de enviar el mayor contingente de información con el mínimo gasto posible. Para ello pa­rece indispensable disponer de una medida adecuada de la cantidad de información de un mensaje así como de una teoría general que nos permita saber en función de qué‚ factores varía la mencionada cantidad. Las compa­ñías privadas que operaban dentro de este sector en los Estados Unidos invirtieron en la investigación sobre el tema. La Bell Telephone Company era una de ellas y en el Bell System Technical Journal, cuando corría el año 1948, se publica por primera vez el artículo donde Shannon expone su teoría matemática de la información.

 

 

 
Alfredo marcos (17/09/2009) 
 
Apunte histórico II
 

La información puede sufrir diferentes transformaciones. Como analiza Abraham Moles, los mensajes en sí mismos pueden ser de naturaleza predominantemente temporal o espacial. Aunque un mensaje espacial suficientemente extenso requiere una actividad exploratoria para su captación y ello lo convierte en cierto modo en temporal. Su desplazamiento también puede realizarse en el espacio (transmisión) o en el tiempo (grabación). En la mayoría de los casos el desplazamiento se produce simultáneamente en el tiempo y en el espacio, ya que ningún canal espacial posee una velocidad de transmisión infinita y por otra parte, los canales temporales (libros, discos, soportes electrónicos, etc.) pueden ser desplazados en el espacio.

Mensajes de carácter predominantemente temporal pueden transformarse en mensajes espaciales y viceversa. Así, una fotografía puede ser enviada por telefax o grabada en una memoria de ordenador. El Propio A. Moles señala la secuencia de transformaciones que sufre la música producida en un estudio de grabación hasta que alcanza el oído de un oyente de radio. Moles distingue cinco canales espaciales y tres temporales, sin contar las transformaciones internas, de difícil análisis, que se producen en el intérprete y el oyente.

Queda claro que, a lo largo de sucesivas transformaciones, hay algo que permanece invariante (o casi). Esta invariante de la transformación de mensajes, independiente de su soporte e incluso de sus dimensiones (espaciales o temporal), ofrece el fundamento de la idea de información como cantidad medible. El desarrollo y comercialización de productos cuyo valor fundamental no radica en el aspecto material ni energético, nos ha hecho reparar en la existencia e importancia de la información como magnitud medible independiente.

 
Nueva entrada. Cuando se introduzca una nueva entrada copiar este párrafo y las siguientes líneas y pegarlas al final de la columna. A continuación, borrar el párrafo azul superior y sustituir los campos 'nombre', 'fecha' y 'texto'.
Nombre (fecha)
 
[Texto de Entrada]

Subpages (1): Information Measurement
Comments