 En algún lugar de California este verano, cientos de ingenieros de OpenAI asistieron a un extraño ritual. El científico jefe de la empresa, Ilya Sutskever, encargó a un artista local esculpir una figura de madera que simbolizase las amenazas existenciales de la IA. Sutskever se llevó la efigie al evento, la plantó delante de los atónitos empleados y le prendió fuego. Era su forma de escenificar el compromiso de OpenAI con la seguridad: la empresa jamás pondría en riesgo a la humanidad con su tecnología. Nadie imaginaba en ese momento que Sutskever se convertiría meses después en el impulsor del despido de Sam Altman al frente de OpenAI. Altman, triunfal, ha ganado el pulso, pero tanto el episodio de la hoguera improvisada como lo ocurrido esta semana en OpenAI reflejan el arranque de una guerra mucho más amplia por el control de la inteligencia artificial. Bienvenidos a la batalla entre bandos rivales que va a definir el futuro (y nuestras vidas). El arrebato pirómano de Sutskever, narrado por varios empleados a The Atlantic, define muy bien el primero de estos bandos en liza. Se compone de un grupo heterogéneo de científicos, ingenieros, académicos y filósofos que defienden un desarrollo de la IA pausado y regulado, acotado por medidas de seguridad que eviten que esta tecnología se acabe convirtiendo en un riesgo para la humanidad. Suena a serie distópica de Netflix, pero algunas de las mentes más brillantes de este planeta están convencidas de que, si no se toman las precauciones necesarias, la IA se puede convertir en un nuevo tipo de "bomba nuclear" capaz de destruirnos. Una de las figuras más destacadas de este movimiento es el británico Geoffrey Hinton, considerado uno de los padres de la IA. Hinton abandonó en mayo su puesto en Google para hablar con libertad de los peligros de esta tecnología. "Nos movemos a un periodo en el que, por primera vez, podemos tener cosas más inteligentes que nosotros. [...] Si pudiéramos detener a la IA cuando quisiéramos [para qu... leer más |