Glosario (sp)‎ > ‎

Teoría de canales || Channel theory

Artículo


 
 Editor
Julio Ostalé 
 Contribuciones incorporadas
Ostalé (01/2010)
 Ámbito de uso
lógica, semántica, informática
 Tipo
teoría
 Francés
théorie des canaux
 Alemán Kanaltheorie

Contenidos


1. Formulación del objeto de estudio

2. Flujo de información en un sistema distribuido

3. Canales de información

4. Flujo de información: el caso ideal

5. Flujo de información: el caso práctico

6. Falibilidad del flujo informativo

7. Dos versiones de la teoría



La teoría de canales, también conocida como teoría de canales de información o teoría del flujo de información, es una teoría lógico-formal que modela el flujo de información entre los componentes de un sistema al que llama "distribuido". Barwise y Seligman (1997) es la referencia estándar. Existen versiones previas de esta teoría que son conocidas por el mismo nombre; en el último apartado hablaremos de ese problema.
 
1. Formulación del objeto de estudio

Hay una pregunta fundamental a la cual intenta responder la teoría de canales: "How is it possible for one thing to carry information about another?" (Barwise y Seligman 1997: xi). Como las cosas aportan información unas sobre otras en la medida en que se encuentran en un estado abstracto, y además lo hacen en relación a un cierto trasfondo de conexiones entre cosas y de regularidades entre estados de cosas, toda respuesta a una instancia particular de la pregunta anterior se ajustará al siguiente esquema (Barwise y Seligman 1997: 13).

Enunciado de información:

Que a se encuentre en el estado F transporta la información de que b se encuentra en el estado G con respecto a ciertas relaciones que vinculan a y b por un lado, F y G por otro lado.

No importa demasiado qué son a, b, F, G. Puede ocurrir que a, b sean objetos y F, G propiedades (como en lógica de predicados monarios); que a, b sean situaciones y F, G tipos de situación (como en teoría de situaciones); también que a, b sean diferentes momentos por el que pasa un sistema y F, G sean descripciones del sistema en forma de tuplas de números (como en modelización matemática). Lo importante es que cada parte del sistema distribuido consta de una serie de ejemplares {a1, a2,...} y de tipos {F1, F2,...} que se combinan entre sí mediante una relación de clasificación para dar lugar a items de la forma "a es F".

El enunciado de información está inspirado en Dretske (1981). Fue parcialmente desarrollado en la teoría de situaciones de Barwise y Perry (1983), que Devlin (1991) actualiza. En la teoría de situaciones se estudiaban las regularidades entre F y G bajo el nombre de "restricciones" (constraints) pero no se tenían muy en cuenta las conexiones físicas entre a y b. Las restricciones sirven para explicar adecuadamente la relatividad del flujo informativo, mientras que la combinación de restricciones y conexiones parecen ser la clave para entender su falibilidad.

2. Flujo de información en un sistema distribuido

Aunque no se define la información, se asume que es algo que "fluye" entre los componentes de un sistema. Tales componentes pueden estar alejados unos de otros en el espacio y en el tiempo, además de ser muy distintos entre sí. Por ello se dice que el sistema es "distribuido" (en informática se habla de computación distribuida con otro significado). Ejemplo: los paneles de información, los billetes de viaje y los trenes de una red ferroviaria forman un sistema distribuido.
 
Existen correlaciones sistemáticas entre los componentes de todo sistema distribuido. Son "regularidades" sobre las cuales se sustenta el flujo de información del sistema, que a su vez puede ser modelado por medio de diferentes constructos teóricos que llamamos "canales de información".

Hay cuatro principios del flujo de información que guían el desarrollo matemático de la teoría.

  1. El flujo de información se sostiene sobre las regularidades en un sistema distribuido.
  2. El flujo de información involucra de manera crucial tanto a los tipos como a sus ejemplares.
  3. En virtud de las regularidades entre conexiones la información acerca de un componente del sistema distribuido transporta información acerca de otros componentes.
  4. Las regularidades de un sistema distribuido son relativas a su análisis en términos de canales de información.

Veamos cómo se formalizan las nociones de sistema distribuido y canal de información, ajustándose a los cuatro principios recién enumerados.

3. Canales de información

Las partes de un sistema distribuido son modeladas como clasificaciones. Una clasificación A es una estructura (A,T,R) donde A y T son conjuntos no vacíos de ejemplares y tipos, respectivamente, y R es una relación de A hasta T. Puede haber ejemplares clasificados por varios tipos y tipos que clasifican varios ejemplares. Si a está en A y t está en T, entonces eRt significa que a es de tipo t.

Una clasificación proporciona el vocabulario (vía T) y el contexto (vía R) con los que hablar sobre cada componente del sistema. Típicamente, los distintos ejemplares de una clasificación pueden ser vistos como un mismo sistema físico a través de diferentes momentos del tiempo; los tipos serían sus descripciones de estado.

Dos clasificaciones A1=(A1,T1,R1) y A2=(A2,T2,R2) pueden relacionarse entre sí mediante un infomorfismo f de A1 en A2, siendo A1 el dominio y A2 el codominio de f. Intuitivamente, un infomorfismo es una relación informacional "parte a todo". Lo forman dos funciones f = (f+,f) que van en direcciones opuestas (ver diagrama) y que cumplen la siguiente condición: f(a)R1t si y sólo si aR2f+(t) para todo a en A2 y t en T1. Esto implica que la imagen del tipo t dice en A2 lo que t dice en A1.

Las líneas verticales representan relaciones clasificatorias; las flechas horizontales funciones. Como la dirección de f+ determina la de f podemos escribir también:

Prescindimos de los subíndices en R1 y R2 cuando no haya lugar a confusión. En los diagramas podemos prescindir de las expresiones R1 y R2.

Barwise y Seligman (1997: 34, 76) definen un canal de información como un conjunto de infomorfismos que comparten el mismo codominio. También podemos decir que un canal consta de un conjunto {A1,...,An} de clasificaciones que representan las partes del sistema distribuido, una clasificación C (el núcleo) que representa el sistema como un todo, y un conjunto de infomorfismos {f1,...,fn} que van desde cada una de las partes hasta C. Las clasificaciones en {A1,...,An} pueden estar repetidas. Los ejemplares en C son las conexiones del sistema: de cada c en C se dice que conecta entre sí a los ejemplares con los cuales está relacionado mediante {f1,...,fn}. Las partes {A1,...,An} informan unas sobre otras en la medida en que todas ellas forman parte de C.

Todo canal modela las condiciones que hacen posible el flujo de información en un sistema distribuido, que a su vez puede ser modelado mediante distintos canales de información. Un sistema distribuido D es un conjunto de elementos que informan unos acerca de otros. Formalmente, D está formado por una clase indexada cla(D) de clasificaciones junto con una clase inf(D) de infomorfismos cuyos dominios y codominos están todos en cla(D).

Un canal de información K cubre un sistema distribuido D si y sólo si cla(D) son las clasificaciones del canal y para todo infomorfismo en inf(D) de su dominio y codominio salen infomorfismos hacia el núcleo de K de modo que el diagrama formado por esos tres infomorfismos conmuta. La idea es que todas las clasificaciones del sistema distribuido son partes informacionales del núcleo del canal que lo cubre. En Barwise y Seligman (1997: 89-97) se muestra cómo pasar de un sistema distribuido a un canal de información.

Un canal de información con cuatro componentes podría ser una linterna de la cual consideramos la bombilla (A1), el interruptor (A2), las baterías (A3) y la carcasa (A4). Su diagrama:

Por dicho canal fluye información: que el interruptor esté en ON y la batería cargada informan de que la bombilla está encendida a menos que algún componente esté roto, que la batería esté en buen estado informa de que la bombilla puede estar encendida o apagada, etc.

Es posible simplificar un canal de modo que solamente contenga dos clasificaciones y un infomorfismo. Para ello reunimos sus partes A1, A2, A3... en una sola clasificación mediante una operación "suma" que genera la clasificación [A1+A2+A3...] donde está contenida toda la información que contenían por separado las partes del canal. En el caso de un canal con dos partes:

Los ejemplares de [A1+A2] son pares ordenados que combinan todos los ejemplares de A1 y A2. El conjunto de tipos de [A1+A2] es la unión disjunta a partir de los tipos de A1 y A2. Un ejemplar es de un tipo si lo era el ejemplar original. Los infomorfismos que van de las partes a la suma y de ésta al núcleo se definen de manera que el diagrama conmute.

4. Flujo de información: el caso ideal

Los canales de información nos dicen por qué fluye la información en un sistema distribuido; cuáles son las condiciones de posibilidad de la información. El aparato lógico que presentamos en este apartado y el siguiente sirven para estudiar cómo fluye esa información.

Cada clasificación A lleva asociada su propia "teoría", que es el conjunto de regularidades entre tipos sustentadas por los ejemplares. ¿Pero cómo se formaliza esa idea de regularidad relativa a una clasificación? Si T1, T2 son subconjuntos de T, entonces un ejemplar a de A satisface el par (T1,T2) si y sólo si aRt para todo t en T1 implica aRt para algún t en T2. Cada par (T1,T2) satisfecho por algún ejemplar es una regularidad.
 
La teoría Th(A) generada por A es una estructura (T,=>) que consta del conjunto T de tipos en A más una relación de consecuencia => formada por todas las regularidades en A. Dada una teoría, escribimos T1=>T2 y decimos que T1 implica T2 siempre que (T1,T2) sea una regularidad de dicha teoría. La relación => cumple las propiedades lógicas de identidad, monotonía y corte que caracterizan a la inferencia deductiva.

Con los conceptos de clasificación, teoría, infomorfismo y canal de información es posible dar un primer análisis del flujo informativo. Supongamos un canal K donde dos clasificaciones A1 y A2 informan una sobre otra en virtud de su pertenencia informacional a C. El diagrama sería este:


Propuesta inicial
Sea a1 de tipo t1 en A1 y a2 de tipo t2 en A2. Entonces que a1 sea de tipo t1 en A1 informa de que a2 es de tipo t2 en A2, relativamente al canal K, si y sólo si a1 y a2 están conectados mediante algún ejemplar en C y además f+(t1) implica f+(t2) en la teoría Th(C). (Barwise y Seligman 1997: 35)

Este primer análisis tiene en cuenta las regularidades en C en vez de tener en cuenta las regularidades entre las partes del sistema. Esto es debido a que hemos adoptado un punto de vista externo a ese sistema, suponiendo además que contamos con información completa sobre sus regularidades. Hemos identificado dicha información con Th(C). Pero en la práctica es poco probable, si no imposible, que conozcamos todas esas regularidades. Por ello conviene revisar el análisis anterior: hay que suponer un punto de vista interno al sistema, donde nos encontremos frente a una parte del mismo, y de esa parte más nuestro conocimiento incompleto y falible sobre el sistema como un todo extraigamos información acerca de otras partes. Todo esto lo hacemos mediante las lógicas locales.

5. Flujo de información: el caso práctico

Dada una clasificación A, su teoría Th(A) es consistente y completa. Pero podemos considerar sistemas lógicos asociados a A que no sean consistentes ni completos. En eso consisten precisamente las lógicas locales. La motivación para considerar tales sistemas proviene del estudio de situaciones donde se posee la teoría de una clasificación "próxima" A1 y se quiere razonar acerca de una clasificación "distante" A2 a partir de lo que se conoce de A1. Ejemplo: conducimos un coche y la clasificación próxima está formada por el velocímetro, cuentarrevoluciones, indicador de gasolina, etc., mientras que la clasificación distante es el motor.

En general, para todo infomorfismo f de A hasta B tenemos dos reglas Intro-f y Elim-f que sirven para mover regularidades de A a B y de B a A respectivamente. Intro-f nos hace pasar de T1f => T2f en A a T1 => T2 en B. Elim-f nos hace pasar de T1f => T2f en B a T1 => T2 en A. Mediante Intro-f se preserva validez pero no invalidez; mediante Elim-f se preserva invalidez pero no validez. Y el análisis de las reglas Intro-f y Elim-f sugiere que debemos generalizar la noción de teoría para dar cabida a sistemas lógicos eventualmenete inconsistentes o incompletos.
 
En el ejemplo del coche, al aplicar Intro-f1 a la teoría Th(A1) obtenemos una teoría consistente que quizás no es completa, y al aplicar Elim-f2 a dicha teoría obtenemos una tercera teoría (esta vez sobre A2) que puede ser inconsistente o incompleta.
 
Una lógica local L = (A,=>,N) está formada por una clasificación A, una relación binaria => sobre conjuntos de tipos de A satisfaciendo identidad, monotonía y corte, y también un subconjunto N de ejemplares "normales" de A que satisfacen todos los pares (T1,T2) tales que T1=>T2. La lógica L es consistente si todo ejemplar es normal; es completa si, para cada par (T1,T2) satisfecho por todo ejemplar normal, se cumple T1=>T2. La lógica local consistente y completa de A se denota Log(A), que no es sino una generalización de Th(A).

Si en el diagrama anterior tenemos una lógica local L(A1) asociada a A1, podemos definir la lógica f1[L(A1)] generada por Intro-f1 a partir de L(A1) y asociada a C, así como la lógica f2[f1[L(A1)]] generada por Elim-f2 a partir de la lógica anterior y asociada a A2. Esta última lógica puede ser inconsistente o incompleta, pero es lo que tenemos para razonar acerca de A2 a partir de la lógica local L(A1). En general, se puede demostrar que toda lógica local sobre una clasificación es la lógica local inducida por algún canal binario, es decir, que para cualquier clasificación A2 y lógica local sobre ella existe una clasificación A1 y un canal que relaciona sendas clasificaciones tal que la lógica local sobre A2 es de la forma f2[f1[Log(A1)]].

¿Qué relación guarda este hecho con nuestro modelo lógico del flujo de información? Imaginemos que se tiene un canal con dos componentes, como en el diagrama anterior, pero que no contamos con Log(C) para su núcleo C. Sólo contamos con una lógica local L sobre C que puede ser inconsistente o incompleta. Entonces ese C puede ser visto como la clasificación distante de un nuevo canal cuyo núcleo es C' y cuya clasificación próxima O (el observador) lleva asociada la lógica Log(O), que es la lógica con la cual el observador razona acerca de C. Tendríamos que L sobre C es igual a g2–1[g1[Log(O)]]

Al tomar L en vez de Th(C) avanzamos sobre la propuesta inicial porque asumimos que nuestro conocimiento de C es incompleto y falible, al ser el de un observador que trata de obtener información sobre A2 a partir de contacto directo con A1. Pero falta todavía definir el flujo de información a partir de regularidades entre partes del sistema, y no (como ocurría con la propuesta inicial) a partir de regularidades entre imágenes de tipos dentro del núcleo. Para avanzar en este segundo punto hay que simplificar el canal mediante la operación suma hasta obtener un canal con un solo componente A y un solo infomorfismo f (pues de lo contrario tendríamos regularidades inherentes a partes del sistema, no regularidades entre partes). Entonces se utiliza Elim-f para obtener f–1(L), una lógica local sobre A que pasa a ser vista como la "lógica distribuida" o lógica que codifica el flujo de información del canal. En otras palabras: 

Propuesta básica:
Dado un canal con un sólo infomorfismo, su lógica distribuida es la imagen inversa de la lógica local del núcleo (Barwise y Seligman 1997: 183).

Esta propuesta es menos explícita que la anterior en lo que hace al enunciado de información que vimos en el primer apartado. Pero sigue siendo compatible con dicho enunciado. Para verlo bastaría reformular la propuesta básica con los elementos suministrados por la suma de clasificaciones.

6. Falibilidad del flujo informativo

Que un par de tipos (T1,T2) cuente o no como regularidad dentro de un sistema distribuido depende del canal de información con que modelamos el sistema (recuérdese el principio 4). Y esto último depende del nivel de análisis adoptado, así como de los ejemplares y tipos que se postulan. Al fijar un sistema distribuido, cambiar de canal puede implicar un cambio en las regularidades que aceptemos, y por tanto un cambio en el flujo de información.

Una manera de restringir el número de regularidades en un canal K es "refinarlo" mediante un canal K' que comparte las partes de K pero cuyo núcleo C' se interpone entre C y esas partes de tal modo que el siguiente diagrama conmuta.

Un caso sencillo es aquél donde las dos funciones de r son identidades y C' tiene más ejemplares que C. Con esto se vería claro que, cuanto más refinado es un canal, más fiable es la información que habilita porque aumenta el número de conexiones entre los ejemplares de las diferentes partes. En cuanto a los tipos: por Intro-r toda regularidad de K' lo es de K, pero por Elim-r no toda regularidad de K lo es de K'. Esto significa que al fallar una regularidad en K no tenemos que buscar lógicas alternativas, sino canales alternativos.

Imaginemos que A1 clasifica el interruptor de una linterna en diferentes tiempos, mientras que A2 clasifica la bombilla de esa misma linterna en diferentes tiempos. Si en C no se tienen en cuenta conexiones con la batería, será una regularidad que la imagen del tipo "on" implique la imagen del tipo "encendido". Cuando una linterna con la batería descargada invalide esa regularidad no hay que buscar nuevas lógicas (no monótonas por ejemplo), sino definir un núcleo C' que dé cuenta de las baterías y en el cual la imagen de "on" no implique la imagen de "encendido".

7. Dos versiones de la teoría

Hay dos versiones de la teoría de canales. La segunda es una evolución de la primera, que a su vez es una evolución de la teoría de situaciones. Sendas versiones tienen su origen en el trabajo conjunto de Jon Barwise y Jerry Seligman durante la década de 1990.
 
  • Primera versión. El primer texto publicado es Barwise (1992). Allí se sugiere que la teoría de situaciones no puede dar cuenta de la falibilidad del flujo informativo porque sólo tiene en cuenta relaciones entre tipos de situación pero no entre situaciones concretas. Se introducen tales relaciones y se estudia el modelo resultante. Barwise (1993) es una exposición más madura. Seligman (1990, 1991a, 1991b) había desarrollado ideas muy similares a las de Barwise de forma independiente. De la colaboración entre ambos autores surge el artículo técnico Barwise y Seligman (1993) y el más filosófico Barwise y Seligman (1994). Este primer desarrollo de la teoría fue sintetizado en Moss y Seligman (1994).
  • Segunda versión. La primera referencia es Barwise y Seligman (1997), donde se reformula la primera versión de la teoría en el marco formal de la teoría de categorías, en particular de la teoría de los espacios de Chu (Barr 1979; Pratt 1999). Las construcciones algebraicas a partir de dichos espacios suministran la parte semántica de la teoría. Barwise (1997) explora vínculos con la lógica modal, mientras que Barwise (1999) es una aplicación de la teoría a los razonamientos no monótonos. Seligman (2009), por su parte, es un intento de reconciliar esta segunda versión de la teoría de canales con la teoría estadística de codificación y transmisión de señales de Shannon (1948).

Pérez-Montoro (2000, 2007) desarrolla desde el punto de vista del contenido informativo las propuestas de Shannon, de Dretske, de la teoría de situaciones y de la primera versión de la teoría de canales. Restall (2005) analiza esa primera versión desde un punto de vista lógico. Algunos manuales recientes sobre teorías de la información, como Devlin (2001) o Bremer y Cohnitz (2004), dedican un capítulo a la segunda versión de la teoría de canales.

 
Páginas web 
Ontologos
 
The Information Flow Framework: http://suo.ieee.org/IFF/ 
      
Referencias 

  • BARR, M. (1979). *-Autonomous Categories, with an Appendix by Po Hsiang Chu. Lecture Notes in Mathematics 752. Heidelberg: Springer-Verlag.
  • BARWISE, J. (1992). “Information links in domain theory”. In: BROOKES, S. et al. (eds.). Mathematical Foundations of Programming Semantics, Lecture Notes in Computer Science 598, pp. 168–192. Berlin / Heidelberg / New York: Springer-Verlag.
  • BARWISE, J. (1993). “Constraints, channels and the flow of information”. In: ACZEL, P. et al. (eds.). Situation Theory and Its Applications. Volume 3, CSLI Lecture Notes 37, pp. 3–27. Stanford: CSLI Publications.
  • BARWISE, J. (1997). “Information and Impossibilities”. Notre Dame Journal of Formal Logic, Vol. 38(4), pp. 488–515.
  • BARWISE, J. (1999). “State-spaces, local logics and non-monotonicity”. In: MOSS, L. S. et al. (eds.). Logic, Language and Computation. Volume 2, CSLI Lecture Notes 96, pp. 1–20. Stanford: CSLI Publications.
  • BARWISE, J. & PERRY, J. (1983). Situations and Attitudes. Cambridge, MA: Bradford Books / The MIT Press.
  • BARWISE, J. & SELIGMAN, J. (1993). “Imperfect Information Flow”. In: VARDI, M. (ed.). Proceedings. Eight Annual IEEE Symposium on Logic in Computer Science, pp. 252–260. Montreal: IEEE Computer Society Press.
  • BARWISE, J. & SELIGMAN, J. (1994). “The rights and wrongs of natural regularity”. In: TOMBERLIN, J. E. (ed.). Philosophical Perspectives, 8, Logic and language, pp. 331–364. Atascadero, CA: Ridgeview.
  • BARWISE, J. & SELIGMAN, J. (1997). Information Flow: The Logic of Distributed Systems. Cambridge: Cambridge University Press.
  • BREMER, M. & COHNITZ, D. (2004). Information and Information Flow. Frankfurt / Lancaster: Ontos Verlag.
  • DEVLIN, K. (1991). Logic and Information. Cambridge: Cambridge University Press.
  • DEVLIN, K. (2001). The Mathematics of Information. [En línea] Helsinki (Finland): European School of Logic, Language and Information. <http://www.helsinki.fi/esslli/courses/Logicinfo.html> [Consulta: 18/12/2009]
  • DRETSKE, F. (1981). Knowledge and the Flow of Information. Cambridge, MA: The MIT Press.
  • MOSS, L. S. & SELIGMAN, J. (1994). “Classification domains and information links: a brief survey”. In: VAN EIJCK, J. & VISSER, A. (eds.). Logic and Information Flow, pp. 112–124. Cambridge, MA / London: The MIT Press.
  • PÉREZ-MONTORO, M. (2000). El fenómeno de la información. Una aproximación conceptual al flujo informativo. Madrid: Trotta.
  • PÉREZ-MONTORO, M. (2007). The Phenomenon of Information. A Conceptual Approach to Information Flow. Medford, NJ: The Scarecrow Press, Inc. [Traducción al inglés de Pérez-Montoro (2000).]
  • PRATT, V. (1999). Chu Spaces. [En línea] Coimbra (Portugal): School on Category Theory and Applications. <http://boole.stanford.edu/pub/coimbra.pdf> [Consulta: 18/12/2009] 
  • RESTALL, G. (2005). “Logics, situations and channels”. Journal of Cognitive Science, Vol. 6, pp. 125–150. [Publicado en 2006. Una versión previa titulada “Notes on Situation Theory and Channel Theory” ya estaba disponible online en 1996 desde la web del autor.]
  • SELIGMAN, J. (1990). Perspectives: A Relativistic Approach to the Theory of Information. PhD Thesis. Centre for Cognitive Studies. Edinburgh: University of Edinburgh.
  • SELIGMAN, J. (1991a). “Perspectives in Situation Theory”. In: COOPER, R. et al. (eds.). Situation Theory and Its Applications. Volume 1, CSLI Lecture Notes 22, pp. 147–191. Stanford: CSLI Publications.
  • SELIGMAN, J. (1991b). “Physical situations and information flow”. In: BARWISE, J. et al. (eds.). Situation Theory and Its Applications. Volume 2, CSLI Lecture Notes 26, pp. 257–292. Stanford: CSLI Publications.
  • SELIGMAN, J. (2009). “Channels: From Logic to Probability”. In: SOMMARUGA, G. (ed.). Formal Theories of Information, pp. 193–233. Berlin / Heidelberg / New York: Springer-Verlag.
  • SHANNON, C. E. (1948). “A Mathematical Theory of Communication”. Bell System Technical Journal, Vol. 27 (July, October), pp. 379–423, 623–656.
Entradas
Julio Ostalé (10/10/2009)
 
[Corresponde con la primera versión del artículo, ahora recogido en la columna de la izquierda.]


Nueva entrada. Cuando se introduzca una nueva entrada copiar este párrafo y las siguientes líneas y pegarlas al final de la columna. A continuación, borrar el párrafo azul superior y sustituir los campos 'nombre', 'fecha' y 'texto'.
Nombre (fecha)
 
[Texto de Entrada]
Subpages (1): Channel Theory
Comments