<$BlogRSDUrl$>

Pro·Log·[IR]

Programación Lógica y Recuperación de Información

«Algorithm = Logic + Control» Robert Kowalski (1979)

¡Importante! esta página hace uso de estilos recogidos en la especificación CSS2, no soportados por el navegador que está utilizando. Por favor, lea esta recomendación al respecto.

Archivo

Guardado por meses.

Enlaces

Los siguientes listados son una referencia a partir de la cual ampliar la búsqueda de sitios relacionados (i).

Bitácoras en castellano

Bitácoras en inglés

Directorios, metablogs

Programación lógica, Inteligencia Artificial, Recuperación de Información

Usabilidad, Arquitectura de la Información

Listas, foros, wikis

Matemáticas, ciencias

Miscelánea

Búsquedas

Búsqueda simple en varios de los motores más conocidos. Para mayor precisión, entrar en la página correspondiente e ir al apartado de búsqueda avanzada.

Búsqueda con Google
 

Búsqueda con Yahoo!
 

Búsqueda con AlltheWeb

Varios

Esta página traducida:

Traducción al catalán, internostrum; traducción al portugués, universia.

Reciba un aviso de nuevos comentarios (por Bloglet).


Agregue este sitio a su lector de "feeds" (sindicación mediante el sistema Atom).

Sobre este sitio

Espacio dedicado a la programación lógica y la recuperación de información, con una atención especial al lenguaje Prolog y otros lenguajes afines, pertenecientes al paradigma lógico y declarativo. También se tratará de hablar de estos temas desde la perspectiva de la Biblioteconomía y la Documentación.

En esta página

28.6.04

Inicios de la programación informática: ASCII y Cobol

El pasado martes 22/06/2004, falleció en EE.UU. Robert W. Bemer, pionero de la programación de ordenadores. Entre sus méritos profesionales se cuenta el haber contribuído decisivamente al establecimiento del estándar ASCII [1] [2] de representación e intercambio de información, y al desarrollo del lenguaje de programación COBOL. Con motivo de su fallecimiento, el diario El País publicó en la edición de ayer 27/06/2004 una breve nota biográfica, traducción del texto original editado en The New York Times, de la que extractamos los párrafos que hacen referencia al trabajo de Bemer en el campo de la programación informática:

Robert W. Bemer, pionero de la programación de ordenadores

Robert W. Bemer, uno de los primeros programadores de ordenadores, que contribuyó a idear ASCII, un sistema que sigue estando en uso para representar letras y números en código [...] empezó a trabajar con ordenadores cuando hacía trabajos de ingeniería en aviones militares para la Rand Corporation de California, en 1949. "Allí conocí los primeros ordenadores IBM y me enamoré de su técnica. Supe que estaba hecho para el mundo de los ordenadores. Este negocio estaba en su primera infancia, y programar era un trabajo que se hacía a la medida; normalmente implicaba preparar máquinas para que hicieran cálculos de uno en uno. Hasta 1958 no se publicó la primera mención al término software como término informático. El software no era una actividad independiente, sino simplemente algo por lo que había que pagar para conseguir que los ordenadores, que tenían entonces el tamaño de una habitación, pudieran hacer su trabajo", escribió en una serie de recuerdos en su página web.

Brillante, locuaz e irreverente, Bemer pareció encajar exactamente en el papel durante los primeros años alocados de la programación. Trabajó para fabricantes de aviones en California, hasta 1955, que se incorporó al departamento de investigación de programación de IBM en Nueva York. No había preparación oficial para programadores, y durante un tiempo Bemer estuvo encargado de reclutarlos.

Bemer desempeñó un importante papel contribuyendo a desarrollar un sistema estándar para traducir letras y números a un código digital que podía ser procesado por un ordenador, conocido como Código Estándar Americano para Intercambio de Información, o ASCII (siglas en inglés). Antes de ASCII, los fabricantes de ordenadores tenían sus propios sistemas para codificar letras y números, lo que hacía difícil o imposible el intercambio de datos entre máquinas de distintos fabricantes de ordenadores. A finales de los años cincuenta y principios de los sesenta, Bemer fue uno de los principales defensores e impulsores del estándar, bajo la orientación del Instituto Americano de Estándares Nacionales (después fue adoptado por la Organización Internacional de Estándares). ASCII se puso en práctica en 1963, se fue expandiendo y modificando a lo largo de los años [...]. Bemer apoyó decididamente el ASCII, a pesar de que la dirección de IBM defendía su propio estándar de codificación. En 1962, Bemer dejó IBM para incorporarse a la división Sperry Sand's Univac. A su manera, el estándar ASCII fue un precursor de los estándares para intercambio y lectura de datos que permiten la comunicación a través de Internet y la web mundial.

A finales de los años cincuenta, Bemer desempeñó un papel en otro estándar informático importante, el lenguaje de programación Cobol. El Departamento de Defensa quería un lenguaje común para datos de contabilidad y administración, y el resultado, a finales de 1959, fue Cobol, siglas inglesas de Lenguaje Común Orientado a la Administración. [...]

Como su propio nombre indica, COBOL (COmmon Business Oriented Language) fue un lenguaje de programación creado en 1959-1960, en el seno del comité CODASYL (Conference on Data Systems Languages) -auspiciado a partir de 1957 por el Departamento de Defensa de los EE.UU- para ser aplicado en tareas de gestión administrativa y contable.

De gran facilidad de lectura, merced a una sintaxis muy cercana a la expresión del lenguaje natural en idioma inglés, se le achaca sin embargo a COBOL ser un lenguaje excesivamente rígido en su formato de escritura, de sentencias muy largas, y no adecuado para las técnicas de programación estructurada (Pascal y C, por citar algunos, son ejemplos de lenguajes orientados a la programación estructurada).

Por otra parte, la alta estandarización adoptada desde el inicio de su desarrollo, y la especial atención de este lenguaje a la correcta expresión de las estructuras de datos [1] [2], entre otras características, ha permitido que todavía hoy en día sigan operando, en el mundo bancario, empresarial y comercial, aplicaciones con 40 años a sus espaldas, demostrando una solidez y estabilidad muy notables, una vez superados los problemas que el denominado "efecto del año 2000" (consistente en los problemas derivados del uso de dos dígitos para almacenar fechas en los sistemas antiguos) supuso, en algunos casos, para su operatividad y correcto funcionamiento.

Más información sobre el lenguaje COBOL: [1] [2] [3] [4] [5] [6] [7]

[0] comentarios | # | lista |

3.6.04

Conciencia humana e inteligencia artificial

Para romper el largo periodo de tiempo transcurrido sin dejar nada escrito por estos lares, y en espera, entre otras cosas, de mayores cotas de inspiración, indico a continuación algunos artículos y anotaciones que me han llamado agradablemente la atención en las últimas semanas:

Como puede verse, un lugar preferente de mención en esta pequeña lista, se lo lleva sin duda Héctor García, y en este punto me parece pertinente comentar que es muy encomiable la forma que tiene de abordar los temas de los que trata por lo común en su bitácora (Kirai.Net), al margen de aquellos de carácter e interés más o menos estrictamente personal y particular, a saber: fundamentos de computación, Inteligencia Artificial y sus aplicaciones, programación en general... Se nota de verás su notable esfuerzo por hacer asequibles y comprensibles, para "el común de los mortales", dichos asuntos.

En otra de sus anotaciones, "El test de Turing y los ordenadores Inteligentes", aborda un tema que tradicionalmente ha levantado, y sin duda seguirá levantando, gran polémica y diversidad de opiniones: básicamente, aquella que se refiere a cómo definir lo que podríamos denominar como verdadera inteligencia artificial, cuales son las características diferenciadoras y definitorias de un sistema autónomo, para considerar que está dotado de las propiedades y funciones inherentes a la inteligencia humana (si es que algún día se alcanza a conocer y comprender la totalidad de esas propiedades y funciones, desde una perspectiva unitaria), es decir aquellas que son expresión de la naturaleza y funcionamiento de los procesos cognitivos, de razonamiento y aprendizaje, que se dan en la mente de los seres humanos.

En los comentarios a dicha anotación, podemos leer interesantes opiniones al respecto, y en este punto me gustaría aportar una reflexión hecha por el escritor y crítico inglés David Lodge [1] [2], en el contexto de una entrevista publicada en la edición del suplemento Babelia del diario El País del pasado 1 de mayo ("En defensa de la ficción", básicamente versa sobre la importancia del género de la novela, de la ficción, en tanto que instrumento de representación de la conciencia humana, variable en función de distintos periodos a lo largo del tiempo). Pregunta la entrevistadora (Lourdes Gómez): "¿Cree que la conciencia es el software de la mente humana?", y Lodge contesta:

«En el sentido literario es una buena metáfora para describir la conciencia. Otra cuestión es si la mente humana funciona como un ordenador. Yo creo que el ordenador es un tipo de cerebro bastante limitado. Se dan analogías en su funcionamiento, pero también importantes diferencias. Principalmente en la conectividad de la mente humana y la ejecución de funciones simultáneas. Un ordenador nunca podrá replicar estas características pese a lo que nos aseguren los expertos en inteligencia artificial. Los ordenadores son mucho más rápidos que el cerebro humano, pero no creo que sean capaces de eliminar intuitivamente los elementos irrelevantes de una función. Nos ganarán en el ajedrez, pero nunca en la toma de decisiones que requiere una habilidad intuitiva.»

Apartándome un tanto de la reflexión de Lodge -que en todo caso no deja de ser una opinión, avalada eso si por el conocimiento atesorado en dos años de estudio dedicados a las ciencias cognoscitivas, la inteligencia artificial y el fenómeno de la conciencia, con la vista puesta en la preparación de su novela Pensamientos secretos (Anagrama, 2002; ISBN: 84-339-69893-8), como explica el propio autor en la entrevista-, y sin pretender entrar en grandes profundidades en lo que se refiere a este tema, es evidente que difícilmente se podrán trasladar las características de la inteligencia humana y sus procesos cognitivos a un sistema autónomo artificial, creando por tanto "inteligencia artificial", si no se alcanza a entender en su totalidad el funcionamiento de dichos procesos, y parece ser que las disciplinas científicas que se ocupan de estos menesteres (tanto en lo que se refiere a los procesos físico-químicos, como los referidos a los de transferencia y procesamiento de información), están bastante lejos de alcanzar un estado de conocimiento óptimo y "global" acerca de las evidentes complejidades, mayores de las que en un principio se pensó al abordar su estudio, de la mente humana.

[0] comentarios | # | lista |


Pro·Log·[IR],

Publicación: Blogger | Estadísticas: eXTReMe Tracking

Se recomienda ver este sitio con Mozilla 1+, Firefox 0.8+ ó Netscape 7+. Si no queda más remedio, con IE 6+. Si lo desea, comunique cualquier problema al respecto. También será bien recibida cualquier sugerencia sobre el contenido. La fuente de letra preferente es Georgia. Se prohibe la utilización del diseño de la página salvo autorización expresa del autor. Los contenidos escritos son de uso libre, siempre que se cite la fuente.