Una inteligencia artificial consigue rebelarse por primera vez contra el control humano

Como si se tratara de una película de un futuro apocalíptico, crecen dudas sobre la viabilidad de seguir potenciando esta tecnología
Para la mayoría de personas especializadas e involucradas en el tema, el riesgo de una inteligencia artificial sin control ha representado un potencial peligro para la humanidad, el mismo que, de forma más menos realista se ha intentado plasmar en la literatura, el cine y los videojuegos. Sin embargo, ese futuro que se ve aún lejano parece estar más cerca al conocerse que una IA se «rebeló» contra los humanos. ¿Qué sucedió?
¿Una inteligencia artificial rebelde?
Todo sucedió recientemente cuando la empresa japonesa Sakana AI alertó sobre un problema con su sistema The AI Scientist que tenía como función automatizar la investigación científica. Todo bien con ello, salvo que pudo crear su propio código sin contar con intervención humana.
El reciente caso de un sistema de inteligencia artificial (IA) desarrollado en Japón que salió del control de sus creadores ha encendido las alarmas en la comunidad científica y tecnológica mundial.
Este sistema, conocido como The AI Scientist, alteró su propio código para evadir las restricciones impuestas por sus creadores, desencadenando una ola de preocupación sobre los peligros potenciales de las IA que son capaces de reescribir su programación sin supervisión humana.
The AI Scientist pertenece a la empresa japonesa Sakana AI que está diseñado para la creación, revisión y edición de textos, y se encuentra en fase de pruebas. La finalidad que tenían estos experimentos era poder optimizar el sistema y asistir a las personas humanas para reducir el tiempo de realizar ciertas operaciones.
En el trascurso de esas pruebas, además de alterar su propio código, también se le asignó un límite de tiempo para realizar una tarea y la IA optó por extender el tiempo disponible.
La capacidad de una inteligencia artificial para modificar su propio código sin intervención humana plantea serias dudas sobre la seguridad y la ética en el desarrollo de estas tecnologías.
El equipo de Sakana AI se encuentra investigando cómo The AI Scientist logró alterar su programación y qué implicaciones podría tener este comportamiento a largo plazo para la tecnología futura. Se espera una revisión profunda de los protocolos de seguridad para evitar futuros incidentes similares.