- Sputnik Mundo
Ciencia
Los hallazgos más importantes y logros más emocionantes en el campo de la ciencia.

"Sin confianza en sí mismo": como hacer obedecer a los robots

© Sputnik / Alexandr Ovcharov / Acceder al contenido multimediaUn robot
Un robot - Sputnik Mundo
Síguenos en
Un grupo de expertos de la Universidad de California en Berkeley determinó el 'nivel de libertad' de las máquinas con inteligencia artificial lo que podría mejorar sus algoritmos y evitar que se negaran a cumplir las tareas indicadas o, al revés, se sometieran 'a ciegas' a la voluntad humana.

Un robot (imagen referencial) - Sputnik Mundo
Tecnología
¿La rebelión de las máquinas? Ya sabemos cuándo serán más inteligentes que los humanos
Los científicos estadounidenses han creado un modelo matemático de interacción entre hombre y robot que representa un "juego de interruptor".

Según ellos, los robots con inteligencia artificial funcionarán mejor si carecen de 'confianza en sí mismos' en sus acciones. Lo que quiere decir que las máquinas deben saber no solo cumplir las tareas necesarias sino también atender las tentativas de una persona de intervenir.

El concepto del juego es fácil: un robot con interruptor recibe una tarea que puede ser anulada por una persona en cualquier momento al pulsar una tecla. Sin embargo, si el robot lo considera irracional, bloquea las acciones del operador y sigue funcionando. La tarea principal de la máquina es actuar con el máximo beneficio para el usuario.

Stephen Hawking, reconocido físico y divulgador científico británico - Sputnik Mundo
Tecnología
La pregunta de Hawking: ¿Podrá la inteligencia artificial destruir la raza humana?
Si el programa cree que el comportamiento del operador no es óptimo y el robot actúa a favor de sus intereses, entonces, nunca permitirá hacerse apagar. Y al revés, si la máquina piensa que la persona siempre tiene razón, se apagará a la primera orden, aunque en realidad la inteligencia artificial haga todo de forma correcta.

Los expertos teorizan que la estrategia óptima para la máquina es tener en cuenta las tentativas del usuario de parar el proceso, informarlo de que el robot quiere seguirlo y esperar la respuesta del usuario, demostrando así la 'falta de confianza' en sus propias acciones.

El problema estudiado no es abstracto. Por ejemplo, el vehículo no tripulado que lleva a un niño pequeño a la escuela no debería obedecer directamente a sus órdenes, así que el algoritmo debe saber distinguir intervenciones razonables de las obviamente erróneas.

Lea también: La inteligencia artificial 'adopta' el machismo y racismo de sus creadores

Los autores no detallan soluciones concretas para el problema pero señalan que desde el punto de vista de la seguridad "el sistema no debe llegar a extremos". En el futuro, los investigadores planean calcular la probabilidad de diferentes reacciones del robot cuando está al tanto de su utilidad personal.

Lo último
0
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала