noscript
“En 10 años la inteligencia artificial podría llevar a la humanidad a su extinción”, dijo el padre de la IA
SOMBRÍO PRONÓSTICO

“En 10 años la inteligencia artificial podría llevar a la humanidad a su extinción”, dijo el padre de la IA

Geoffrey Hinton, que este año recibió el Premio Nobel de Física, fue uno de los desarrolladores de la tecnología del momento. Pero justamente decidió renunciar a Google cuando advirtió los serios riesgos de que las cosas se salgan de control. O, mejor dicho, de que “las máquinas tomen el control”.

Compartir

El profesor Geoffrey Hinton, que este año recibió el Premio Nobel de Física, advirtió que la inteligencia artificial (IA) podría acabar con la raza humana en las próximas dos décadas, aunque enseguida corrigió a la baja ese pronóstico, durante una entrevista que concedió al diario inglés The Telegraph.

En ese reportaje, Hinton comparó el rápido desarrollo de la IA con la revolución industrial, aunque aclaró que las máquinas "podrían tomar el control" esta vez, por lo que pidió una regulación gubernamental más estricta.

Anteriormente, el científico informático había dado un 10% de probabilidades de que la tecnología lleve a la humanidad a un destino catastrófico en los próximos 30 años. Sin embargo, cuando le preguntaron si algo había cambiado en su análisis, respondió: "En realidad, no. Creo que entre 10 y 20 años, si acaso".

"Nunca antes hemos tenido que lidiar con cosas más inteligentes que nosotros mismos. ¿Y cuántos ejemplos conoces de un ser más inteligente controlado por un ser menos inteligente? Hay muy pocos ejemplos", continuó.

"En la revolución industrial, la fuerza humana se volvió menos relevante porque las máquinas eran simplemente más fuertes: si querías cavar una zanja, la cavabas con una máquina. Lo que tenemos ahora es algo que está reemplazando a la inteligencia humana. Y la inteligencia humana común y corriente ya no será la vanguardia, sino las máquinas", agregó.

El experto trabajó en Google durante más de una década; sin embargo, renunció a su puesto en el gigante tecnológico el año pasado para poder hablar libremente sobre las consecuencias que el mal uso de la IA generativa podría tener sobre la humanidad. En mayo, advirtió de los riesgos que las compañías tecnológicas estaban corriendo al competir por lograr productos basados en ella, y que su actual desarrollo podría "ser imposible de detener".

“No es ciencia ficción”

Luego de dejar Google, en junio de 2023 Hinton dio una conferencia de prensa en la que afirmaba: "Creo que es importante que la gente entienda que no se trata solo de ciencia ficción; no se trata solo de generar miedo".

El académico resaltaba entonces en Toronto, Canadá, que la mayoría de los interesados en el tema buscan más comprender cómo aprovechar el creciente tsunami tecnológico de la IA, y no en evaluar y entender las amenazas futuras. "En este momento hay 99 personas muy inteligentes tratando de mejorar la IA y una sola muy inteligente tratando de descubrir cómo evitar que asuma el control", precisó.  

En este contexto, Hilton cree que se debe alentar a las personas detrás del desarrollo de esta tecnología a trabajar para contrarrestar sus riesgos, a "esforzarse mucho por comprender" cómo podría la IA tratar de tomar las riendas de la sociedad, y hacer esto antes de que "sea más inteligente que nosotros".

La posibilidad de que la IA nos supere en intelecto y de que incluso llegue a tener "sus propios objetivos" parece bastante real y hay que tomarla "en serio", opina el ingeniero. "Bien puede desarrollar el objetivo de tomar el control, y si lo hace, tendremos problemas", asevera.

Las máquinas ya logran “pequeños razonamientos”

Gran parte de su preocupación proviene de los grandes avances que la IA ha logrado en poco tiempo. Además del riesgo existencial, Hilton considera que los grandes modelos lingüísticos, que ya logran "pequeños razonamientos", puede traer consecuencias en cuestión de sesgo y discriminación, generación de desempleo y contribuir a la difusión de noticias falsas, entre otros.

Hilton comenzó a investigar la IA hace más de 40 años. Galardonado en 2018 con el Premio Turing, desarrolló en 2012 junto con dos estudiantes de la Universidad de Toronto la tecnología fundacional de estos sistemas, usados hoy en día por compañías como OpenAI, Google o Microsoft para crear sus plataformas de IA generativa.

El experto trabajó en Google durante más de una década; sin embargo, renunció a su puesto en el gigante tecnológico hace casi dos meses para poder hablar libremente sobre las consecuencias que el mal uso de la IA generativa podría tener sobre la humanidad. En mayo, advirtió de los riesgos que las compañías tecnológicas estaban corriendo al competir por lograr productos basados en ella, y que su actual desarrollo podría "ser imposible de detener".

Comentarios