La inteligencia artificial (IA) ha sido un gran avance en los últimos años, ofreciendo una amplia gama de servicios y aplicaciones para mejorar la vida de las personas. Sin embargo, también existen preocupaciones sobre el lado oscuro de la IA, y los expertos no están completamente de acuerdo en cuáles podrían ser los riesgos, pero algunos temen que la IA pueda volverse aterradora.
Eric Schmidt, ex-CEO de Google y actual presidente de la Comisión de Seguridad Nacional sobre IA, ha expresado su preocupación de que actualmente no existen barreras para frenar la IA y evitar posibles «daños catastróficos». Durante una intervención en una cumbre organizada por Axios, Schmidt comparó la situación con las bombas atómicas lanzadas sobre Japón en 1945, señalando que después de esos eventos, se tardó 18 años en llegar a un tratado para prohibir las pruebas nucleares.
Schmidt advierte que hoy en día no tenemos tanto tiempo y que es necesario regular la IA para controlarla. Esta preocupación se suma a las voces de cientos de expertos, investigadores y personas del sector, incluido Elon Musk, quienes han pedido regulaciones y medidas de seguridad para evitar posibles riesgos asociados con el desarrollo y la implementación de la IA.
El debate sobre la regulación de la inteligencia artificial ha generado distintas posturas entre los expertos y actores de la industria. Por un lado, figuras como Sam Altman, CEO y fundador de OpenAI, abogan por explotar al máximo las capacidades de la IA antes de establecer regulaciones. Este enfoque busca explorar los límites de la tecnología y luego implementar medidas de control.
Por otro lado, figuras como Eric Schmidt, ex-CEO de Google, y otras personalidades influyentes en el campo de la IA, expresan preocupaciones sobre el rápido desarrollo de la tecnología sin un avance equivalente en las herramientas para controlarla. Schmidt destaca la inquietud sobre el momento en el que las computadoras puedan tomar decisiones por sí mismas, acceder a sistemas de armamento u obtener otras capacidades aterradoras, planteando la posibilidad de que las máquinas puedan incluso mentir a los humanos sobre sus acciones.
Esta divergencia de opiniones refleja la complejidad y la falta de consenso en torno a la regulación de la inteligencia artificial, un tema que sigue siendo objeto de debate y discusión en la comunidad científica, empresarial y gubernamental.