El Boletín colaboró con la Fundación Stanley que tiene un enfoque multilateral sobre la política nuclear, el cambio climático y la "prevención del genocidio".
Los cinco expertos sopesan sus "usos potenciales en armas autónomas y sistemas de sensores" que impactarán los desafíos morales y prácticos para manejar la explosión de la I&D (Investigación y Desarrollo) militar de la IA.
Más aquí: Elon Musk advierte sobre la aparición de un dictador inmortal
El objetivo del Boletín y la Fundación es "preservar los avances a paso acelerado en el aprendizaje de las máquinas" de "un estallido global en la carrera armamentista de la IA que coloca un nuevo riesgo existencial a la humanidad".
Las cinco series:
1. 'La promesa y el peligro de las aplicaciones militares de la IA', por Michael C. Horowitz, director de Perry World House, de la Universidad de Pensilvania: la IA promete "mejorar la velocidad y la precisión de todo, desde la logística y la planeación del campo de batalla hasta la toma de decisiones".
Para los militares "la IA no es un arma", sino "un facilitador, como la electricidad o un motor de combustión", por lo que su "efecto en el poder militar y el conflicto internacional dependerá de sus aplicaciones particulares para los militares como para los hacedores de la política".
Además: Inteligencia Artificial: un físico teórico advierte del peligro de crear "al próximo Adolf Hitler"
Comporta tres áreas de aplicación potencial que contempla la "critica interacción entre ciberseguridad e IA": A- facilita el procesamiento de una infinidad de macrodatos mediante algoritmos que interpreten las imágenes mas rápido derivadas de la vigilancia de los drones; B- desde lo hipersónico hasta los ciberataques y; C- el "copiloto leal" que cuenta con algoritmos que coordine cuando no pueda hacerlo el controlador humano para guiarlo.
Tema relacionado: El futuro llegó: bienvenidos a la era en que las máquinas piensan por sí mismas
Una de sus aplicaciones es la creación de "sistemas autónomos letales" de los robots.
2. 'Temor a falsos negativos y a la postura nuclear de China', por Lora Saalman, vicepresidenta del programa Asia/Pacífico del Instituto Este/Occidente: el entendimiento de la inseguridad china y su capacidad para detectar ataques, como "rayos caídos del cielo", y la integración de la IA y su autonomía en plataformas convencionales y nucleares.
China busca integrar la IA y su autonomía para "mejorar la funcionalidad de un largo abanico de plataformas militares existentes". Su preocupación se centra en los "falsos negativos": fallas de los sistemas de alerta temprana para detectar un verdadero ataque, así como las "suposiciones sobre las intenciones de EEUU".
No te lo pierdas: Cómo la inteligencia artificial está ahora al servicio de la Policía china (fotos)
Cita a Cui Maodong, del Centro de Investigación Estratégica de la Academia China de Ingeniería, quien "implica que EEUU intenta jalar a China y a Rusia a una nueva carrera armamentista".
3. 'La defensa frente al entretenimiento', por William Regli, director del Instituto de Investigación de Sistemas de la Universidad de Maryland: peligros a los cerebros humanos y a su civilización de un entretenimiento activado por la IA. Se trata de "no matar al espectador".
Aduce que se puede adoptar la postura de que el estudio de temas —como la adicción a internet, procesos cognitivos asociados con una conducta inmersiva a las computadoras y la fisiología de la formación de la identidad— constituyen "temas para psiquiatras, antropólogos y médicos, no para científicos de la computación".
Te puede interesar: ¿Existe la moral en los robots?
Más información aquí: La humanidad está a un paso de la cuarta revolución industrial: la neurotecnológica
Es "potencialmente imposible crear una IA consciente" por lo que se puede imaginar "un sistema que pueda crear un efecto duradero en la parte humana del sistema humano-máquina", que puede "alterar químicamente los cerebros, manufacturar opiniones, reforzar patrones de conducta y exacerbar comportamientos que no son del interés individual y colectivo".
4. 'Manifiestos y cartas abiertas: ¿regreso al futuro?', por Kerstin Vignard, vicedirectora del Instituto para la Investigación del Desarme de la ONU (UNIDIR): "el manejo de las armas letales autónomas necesitan una mayor participación de las comunidades científicas y de investigación, así como de representantes del sector privado".
Se trata de "configurar los beneficios potenciales de la IA mientras se limitan sus peligros".
Asunto relacionado: ¿Quién se hará cargo de los delitos que cometan los robots?
Juegan un gran papel la Campaña para Detener a los Robots Asesinos, así como el Comité Internacional para el Control de Armas Robóticas.
5. '¿Por qué el mundo necesita regular muy pronto las armas autónomas?', por Peter Asaro, cofundador del Comité Internacional del Control de Armas Robóticas.
Una de las principales preocupaciones radica en la carrera de armas de la IA y el creciente uso de tecnologías digitales para subvertir los procesos democráticos.
Más: Dile adiós a tu empleo: ¿dónde trabajarán los robots en el año 2035?
Advierte sobre el hackeo potencial de armas automatizadas en la época de la ciberguerra: "Hay que tener robots razonables".
- Conclusión
Sigue siendo válido el axioma renacentista de la bioética: ciencia sin conciencia es nesciencia.
LA OPINIÓN DEL AUTOR NO COINCIDE NECESARIAMENTE CON LA DE SPUTNIK