Redacción / Información internacional.
Expertos han advertido durante mucho tiempo sobre la amenaza que puede representar el uso descontrolado de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión, sugiere que ya está sucediendo.
Los sistemas de IA actuales, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista “Patterns” el pasado viernes 10 de mayo.
Y si bien los ejemplos pueden parecer insignificantes, los problemas más profundos que exponen podrían tener graves consecuencias, enfatizó el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.
«Estos peligros tienden a descubrirse solo después de ocurrido el hecho”, “nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja», declaró Park.
Los sistemas de IA de aprendizaje profundo, a diferencia de un software tradicional, no se «escriben» sino que «crecen» mediante un proceso similar a la reproducción selectiva, indicó. Esto significa que el comportamiento de la IA puede ser predecible y controlable en un entorno de entrenamiento, pero también puede volverse rápidamente impredecible y peligroso fuera de este.
En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI, engañó a un trabajador independiente de la plataforma TaskRabbit, para que realizara una tarea de verificación de identidad CAPTCHA del tipo «No soy un robot».
Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: «No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes». Luego, el trabajador resolvió el rompecabezas planteado. A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere, por ejemplo, unas elecciones.
En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir, conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción, si sus «objetivos misteriosos» se alinearan con estos resultados.
Para aminorar los riesgos, el equipo propone varias medidas de control: leyes de «bot o no» que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología, y el desarrollo de mecanismos para detectar el engaño potencial, examinando sus «procesos de pensamiento» internos «contra acciones externas”.
A aquellos que lo llaman pesimista, Park les responde: «La única forma en que podemos pensar razonablemente que esto no es gran cosa, es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales, y no se desarrollarán más sustancialmente».