Artículo
{texto del artículo que solo debe modificar el editor} Referencias
| Entradas
Nueva entrada. Cuando se introduzca una nueva entrada copiar este párrafo y las siguientes líneas y pegarlas al final de la columna. A continuación, borrar el párrafo azul superior y sustituir los campos 'nombre', 'fecha' y 'texto'.
Nombre (fecha)
[Texto de Entrada] J.M. Díaz Nafría (20/07/2009) ~ de Bar-Hillel-Carnap (PBC): Según las medidas de información semántica normalmente propuestas (→ medida de la información, informatividad) una tautología, en cuanto a que presenta probabilidad 1, no aportaría información (lo cual está de acuerdo con el sentido corriente de que las tautologías no informan en absoluto), mientras que una contradicción (que describe estados imposibles) correspondería a un valor máximo en la medida de la información semántica. Según los autores: “un enunciado auto-contradictorio afirmaría demasiado, por tanto sería demasiado informativo para ser verdad” (Bar-Hillel y Carnap, 1952, p.8). Una manera de evitar la paradoja sería la de limitar la información a aquella que sea consistente (como en la Teoría de Sistemas de Información de Zinder o en la Teoría de la Decisión en la que toda información inconsistente es lógicamente obviada por el tomador de decisiones). De acuerdo con Floridi a la hora de afrontar las contradicciones pueden optarse tres posturas: 1) asignarles un valor infinito de información, que quede fuera del universo de discurso (del mismo modo que un precio infinito corresponde a algo que no puede comprarse); 2) eliminación de todos los casos de inconsistencia (como ocurre con la TMC al ponderar cada instancia por su probabilidad de ocurrencia); 3) atribuir un valor nulo de información a todos los casos de inconsistencia (como hacen varios autores y el propio Floridi en su Aproximación semántica fuerte). Referencias
|
Glosario (sp) >