La más reciente de estas críticas la ha hecho Alan Bundy, profesor de razonamiento automatizado en la Universidad de Edimburgo en Escocia, quien argumenta que la IA sí que representa una amenaza real, pero no por ser una inteligencia de máquina similar a la humana. Todo lo contrario: el peligro es una IA muy mala e incompetente, informa Motherboard.
Bundy señala que nuestros grandes éxitos en el desarrollo de la inteligencia artificial en los últimos años han sido extremadamente limitados. Tenemos máquinas que pueden jugar al ajedrez o buscar información en base a un lenguaje común, pero eso ni se acerca a la inteligencia general.
"La 'singularidad' —momento de la salida de una IA fuera del control por su capacidad de mejorarse de manera independiente- está predicada en un modelo lineal de inteligencia, a lo largo de la cual la IA está avanzando gradualmente", explica Bundy.
Pero, "la inteligencia no es así, debe ser modelada usando un espacio multidimensional, con muchos tipos diferentes de inteligencia y con la IA progresando en muchas direcciones diferentes [simultáneamente]".
Bundy tiene una posición inusual respecto a esta situación porque fue uno de los científicos informáticos de Reino Unido que a comienzos de los años ochenta argumentaron contra la Iniciativa de Defensa Estratégica de Ronald Reagan en EEUU, inicialmente propuesta como un sistema sin manipulación humana que debía detectar misiles balísticos intercontinentales soviéticos y despedazarlos con láseres antes de que pudieran volver a entrar en la atmósfera terrestre.
Más tarde, se renunció a la Iniciativa de Defensa Estratégica y fue sustituida por otra, más fácil de realizar.
Bundy insiste en que la IA continuará desarrollándose de forma tal que las nuevas máquinas nuevas van a seguir impresionando con habilidades cada vez más extendidas, pero en campos estrechos mientras serán incapaces de todo lo demás. Que es, de hecho, la verdadera inteligencia.