Tener en cuenta la seguridad en inteligencia artificial es fundamental, dicen los expertos.
La ciencia ficción lo ha planteado en varias ocasiones: ¿qué
sucedería si las computadoras y los robots se rebelaran contra los seres
humanos?
Tal vez la
guerra entre máquinas y humanos que mostraba James Cameron en su película "Terminator" (1984) haya sido
la inspiración de Google, que decidió patentar una tecnología que intenta
proteger a la raza humana en caso de que la tecnología amenace su seguridad e
integridad.
La solución
de Google consiste en un "botón rojo de emergencia", que sería capaz de "apagar" toda la inteligencia artificial,
según una investigación recientemente publicada por el Instituto de
Investigación en Inteligencia de Máquinas (MIRI, por sus siglas en inglés), de
la Universidad de Berkeley, en California, EE.UU.
Aunque, según los expertos, que estudian la posibilidad de que
las máquinas se tornen peligrosas para los seres humanos, no es seguro que
todos los robots puedan ser "desactivados fácilmente" con este
sistema.
imagenTHINKSTOCK
Este "botón rojo" será capaz de
desconectar la inteligencia artificial instantáneamente, en caso de tornarse
peligrosa para los humanos.
O, al menos, ponen a las máquinas contra las cuerdas, probando sus
posibilidades de reacción en caso de que puedan atacar a los seres humanos.
El robot que creó el artista y especialista en robótica
Alexander Reben, de la Universidad de Berkeley, es un buen ejemplo.
Se trata de
una máquina capaz de decidir si infligir o
no dolor a las personas, clavando una aguja en el dedo cuando
así lo determinara.
El objetivo de Reben es ahondar en el debate sobre los posibles
peligros de la inteligencia artificial para los seres humanos.
"La verdadera preocupación sobre la
inteligencia artificial es que está fuera de control".
Alexander Reben, especialista en robótica.
"La
verdadera preocupación sobre la inteligencia artificial es
que está fuera de control", le explica Reben a la BBC.
"Los gigantes tecnológicos dicen que falta mucho para eso,
pero es mejor pensarlo ahora, antes de que sea demasiado tarde".
"Yo
estoy demostrando que (los robos dañinos) ya son una realidad. Tenemos que
confrontarla", explica Reben, quien considera que el "interruptor de apagado" que está desarrollando
Google podría ser útil, tarde o temprano.
"Es interesante saber lo que propone el botón de
apagado", sostiene Reben.
"¿Cómo
un robot no sería capaz de desactivar ese botón, si es tan inteligente?",
se pregunta el especialista, que define su robot
"dañino" como un "experimento filosófico".
"El
robot toma una decisión que yo, como su creador, no
puedo predecir. No sé si llegará o no a hacerme daño",
explica.
Inteligencia
artificial "segura"
Según Orseau
y Amstrong, el objetivo del "gran botón rojo" de apagado sería
"evitar que la máquina siga una secuencia dañina de acciones para el ser
humano o para el medio ambiente".
El potencial
peligro de las máquinas inteligentes para los seres humanos es una preocupación creciente de científicos y especialistas en
robótica.
El fundador de Tesla, Elon Musk, lo ha comentado más de una vez.
¿Puede la inteligencia artificial llegar a
poner en peligro a la especie humana?
Y muchas veces su "inteligencia" puede llegar a
superarnos.
Los
creadores del "botón rojo" mencionan ejemplos como el de un robot que aprendió a detener el juego Tetris para evitar perder.
Y esto podría extrapolarse a otras situaciones más dañinas para los seres
humanos.
"Es importante comenzar a trabajar en
inteligencia artificial segura antes de que surja cualquier problema".Laurent Orseau (Deep Mind).
A Orseau le parece comprensible que a la gente le preocupe el
futuro de la inteligencia artificial.
"Es
sano estar preocupado. Pero, hoy día, el nivel de nuestro
conocimiento no requiere que lo estemos", afirma
Orseau.
"Es importante comenzar a trabajar en inteligencia
artificial segura antes de que surja cualquier problema".
Un gran reto.
Sin embargo,
según el científico, "ningún sistema es infalible;
es una cuestión de hacerlo tan bueno como sea posible. Y éste es uno de los
primeros pasos".
Noel Sharkey, profesor de inteligencia artificial de la
Universidad de Sheffield, en Reino Unido, está de acuerdo.
"Tomar conciencia de la seguridad es esencial para (el
desarrollo de) casi todos los sistemas informáticos, algoritmos y robots",
le dice a la BBC.
Según
Sharkey, es igualmente importante "la capacidad de desconectar el sistema
en un instante, ya que siempre es posible para un
sistema de aprendizaje por refuerzo encontrar atajos para eliminar el operador".
"Lo que
sería incluso mejor es que un programa de inteligencia artificial pudiera
detectar cuando algo va mal y autodetenerse", afirma Sharkey.
"Eso
habría sido muy útil cuando Tay, el bot de Microsoft, comenzó a emitir comentarios
racistas y sexistas en Twitter", opina el experto.
"Pero
es un reto científico enorme", concluyó.
Fuente:/BBC.Mundo