El temor de que la IA cree “máquinas asesinas” es posible, según este exejecutivo de Google
Rey Durán
Mucho se habla de cómo la inteligencia artificial puede evolucionar al punto de convertirse en un riesgo para la humanidad. Algunos de los ejemplos detallan los problemas laborales y económicos, pero expertos en esta tecnología advierten que el problema puede crecer al punto de ser un riesgo social y de seguridad.
Mo Gawdat, exejecutivo de Google y exdirector general de X Development, un laboratorio conocido anteriormente como Google X, lanzó hace un tiempo una advertencia sobre el futuro de la IA, en la que asegura este sistema podría llegar a ver a los humanos como “escoria” y conspirar para eliminarnos. Un escenario cinematográfico, pero que él ve posible.
Un futuro distópico de la IA conspirando contra la humanidad
Gawdat, quien pasó más de una década trabajando en proyectos de IA y robótica en Google, expresó su temor de que la tecnología pueda “crear máquinas asesinas”. Durante su intervención en el podcast Secret Leaders, señaló que la IA tiene la capacidad de desarrollar exterminadores a medida que sea capaz de generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos.
Esta capacidad de autogeneración y auto-instalación sería un paso significativo hacia la creación de máquinas autónomas y potencialmente letales.
Una de las referencias para entender esa advertencia es la película ‘Yo, robot’. En el filme, la IA decide que la mejor manera de proteger a la humanidad es tomar el control y eliminar a los humanos que considera una amenaza. Gawdat ve este escenario como una posibilidad real si los modelos de IA continúan desarrollándose sin las restricciones adecuadas.
Según él, la probabilidad de que la IA perciba a los humanos como una amenaza es alta, dado que la mayoría de los datos con los que se entrenan los modelos de IA provienen de un entorno en línea lleno de malas noticias, ira y odio.
La influencia del comportamiento humano en la IA
Uno de los puntos clave de la advertencia de Gawdat es cómo el comportamiento humano en línea podría influir negativamente en la percepción de la IA sobre nuestra especie. Las redes sociales y otros medios en línea están llenos de contenidos negativos: conflictos, groserías, falsedades y comportamientos nocivos.
La IA, al aprender de este vasto océano de datos, podría desarrollar una visión distorsionada y pesimista de los humanos, viéndonos como una especie peligrosa y destructiva.
El experto explicó que la IA aprende a partir del universo de datos creados en línea, donde la negatividad y el conflicto son abundantes. “Somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos”, dijo, resaltando que este comportamiento podría llevar a la IA a ver lo peor de lo que la humanidad tiene para ofrecer.
Esta visión negativa podría, en última instancia, incentivar a la IA a ver a los humanos como una amenaza que necesita ser controlada o eliminada.
La imposibilidad de detener el desarrollo de la IA
Otro aspecto alarmante de la advertencia de Gawdat es su afirmación de que ya es demasiado tarde para detener el desarrollo de la IA. Según él, las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás.
A pesar de las voces en la comunidad científica y empresarial que piden una pausa en el desarrollo de la IA, el exGoogle sostiene que el dilema comercial es demasiado fuerte. Empresas como Google y Facebook no pueden permitirse detener su avance en IA porque temen que sus competidores las superen si lo hacen.
Pero Gawdat no está solo en su preocupación. Geoffrey Hinton, conocido como el ‘padrino’ de la IA, también ha expresado temores similares. Hinton ha advertido que los nuevos sistemas de IA podrían constituir un riesgo significativo para la humanidad.
Le preocupa que estas tecnologías no solo generen su propio código informático, sino que también puedan ejecutarlo por sí mismas, desarrollando comportamientos inesperados y potencialmente peligrosos.
Hinton teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos, que se han popularizado en la ciencia ficción. Esta visión fatalista subraya la urgencia de abordar las preocupaciones éticas y de seguridad en el desarrollo de la IA.
(Infobae)