La inteligencia artificial (IA) constituye un campo muy activo dentro del campo de las ciencias de la computación. Los máximos especialistas en IA se han reunido hace pocas fechas en Asilomar, en la bahía de Monterrey (California), para discutir sobre la necesidad de poner ciertos límites a la investigación en robótica. Los científicos de la computación han reflexionado sobre los posibles riesgos de las máquinas inteligentes, dado su nivel de desarrollo actual y así tratar de anticiparse a ellos con unas recomendaciones que se pretende sean vinculantes para los expertos en inteligencia artificial de todo el mundo.
La ciencia-ficción cada vez es más real. Hace cincuenta años Isaac Asimov enunció las tres leyes generales de la robótica: No dañar a los humanos; obedecerles salvo conflicto con lo anterior, y autoprotegerse salvo conflicto con todo lo anterior. Stanley Kubrick ya señaló en ‘2001: una Odisea en el Espacio’ a finales de los años sesenta la dificultad moral de las máquinas (Hal 9000) para sopesar sus decisiones.
El potencial de las tecnologías es inmenso y su capacidad de desarrollo resulta aparentemente ilimitada. En este ámbito se sitúan los científicos militares, los cuales es importante que también se sumen a las reflexiones aquí anunciadas. Hoy día existen máquinas de guerra –aviones no tripulados- que sobrevuelan los objetivos y pueden decidir por su cuenta si desencadenan un bombardeo.
Es necesario valorar los posibles riesgos de las máquinas inteligentes y tener la opción de prevenirlos. Una de las claves posiblemente sea el concepto de error; que en el caso de los humanos si es reconocido es el primer paso para poder ser rectificado; esa capacidad es hasta ahora intrínsecamente humana. ¿Qué es un error para una máquina?
No hay comentarios:
Publicar un comentario