En la última década –y con más intensidad en los últimos cinco años– el desarrollo de la inteligencia artificial ha sido trepidante. Cada día aparecen nuevas aplicaciones basadas en modelos de IA. Nvidia, fabricante de los chips que alimentan esta revolución, es hoy la empresa más valiosa del mundo, y las siete grandes tecnológicas, conocidas como Big Tech, son el motor económico de Estados Unidos. Muchos miran este auge con escepticismo y advierten que podría tratarse de una burbuja similar a la de las punto com. Pero pocos, muy pocos, dudan del impacto que la IA tendrá en el rumbo humano durante las próximas décadas.En el centro de este impulso está el británico Mustafá Suleyman (Londres, 41 años), actual CEO de Microsoft AI y cofundador en 2010 de DeepMind, donde fue director de producto y más tarde responsable de aplicaciones de IA. Aunque la inteligencia artificial llevaba décadas avanzando en silencio, de modo casi perezoso, DeepMind logró hitos que parecían inalcanzables, como AlphaGo, el incipiente sistema de IA capaz de vencer al campeón mundial Lee Sedol de Go, uno de los juegos combinatorios más complejos, con un marcador irrefutable: 4-1. Al combinar redes neuronales –desarrolladas por el equipo del hoy Nobel de Física Geoffrey Hinton en la Universidad de Toronto– con el aprendizaje por refuerzo a gran escala, las máquinas empezaron a idear estrategias que los humanos jamás habían imaginado. Fue un auténtico momento eureka.Cuando Google compró DeepMind en 2016 y se aceleró la carrera por la IA, Suleyman ya era uno de sus principales exploradores. Su posición le permitió entender la revolución desde dentro y formarse una visión amplia de sus oportunidades y riesgos. El mayor: el impacto descomunal que tendrá en la sociedad la confluencia de la IA, la robótica y la biología sintética: desde la transformación del trabajo y las relaciones humanas hasta los grandes desafíos contemporáneos: cambio climático, sistemas de salud, biogenética, competencia geopolítica.Esa reflexión cristalizó en La ola que viene. Tecnología, poder y el gran dilema del siglo XXI (The Coming Wave), un recorrido entusiasta y, a la vez, cauteloso por la historia y el futuro de la tecnología. La IA promete transformarlo todo, pero también encierra peligros reales e inminentes que, si se ignoran, pueden desatar conflictos sociales, nihilismo y destrucción. Su optimismo preocupado subraya la necesidad de un marco político para gobernar la IA, algo imposible de delegar en la tecnología y difícil de consensuar en un mundo marcado por la polarización, el autoritarismo y la competencia entre Estados Unidos y China.Esta entrevista es el resultado de una serie de intercambios por correo electrónico.Pregunta. Como pionero de la IA y cofundador de DeepMind, ¿imaginó alguna vez, en su juventud, que desempeñaría un papel tan fundamental en esta era de acelerado desarrollo tecnológico? ¿Cómo vivió personalmente la “fase de frenesí” descrita por la venezolana Carlota Pérez, a la que haces referencia en su libro? Respuesta. Siempre me han interesado las cosas capaces de generar un impacto masivo y positivo en el mundo, pero mi camino hacia la inteligencia artificial fue inusual. Me involucré en las negociaciones climáticas de Copenhague en 2009, a los 24 años. Fue una experiencia importante porque me enseñó que muchas de las instituciones tradicionales que tenemos para resolver nuestros problemas más grandes y urgentes simplemente no están a la altura. Al mismo tiempo, veía cómo las plataformas digitales se desplegaban a gran escala y tenían un enorme impacto. Me pareció que la inteligencia artificial podía conectar esos dos mundos. Esa fue la motivación: construir una IA capaz de marcar una diferencia significativa frente a los grandes desafíos de nuestro tiempo —el cambio climático, el aumento de los costos de salud, el estancamiento de la productividad, la soledad y la desconexión. Más que el frenesí, uno de los mayores retos que enfrentamos en los primeros días de DeepMind fue que casi nadie hablaba de inteligencia artificial. Era impopular y se veía como algo bastante extraño. Aunque hoy la IA está en todas partes, en ese entonces apenas estaba resurgiendo tras un largo “invierno”. Así que tuvimos que trabajar duro simplemente para convencer a la gente de que la IA y la inteligencia artificial general eran ideas reales y valiosas.P. Desde su posición dentro de la industria, ¿cuánto control tienen realmente los tecnólogos actuales sobre la disrupción que ellos mismos están impulsando? ¿Cómo navegan ese entorno entre competidores y aliados? R. Los tecnólogos deben asumir siempre la responsabilidad. No podemos controlar todo lo que ocurre aguas abajo de lo que creamos, pero eso no elimina la obligación de tomar las decisiones correctas.P. Avances tecnológicos como los grandes modelos de lenguaje han pasado de la ciencia ficción a la vida diaria de miles de millones de personas. ¿Qué estrategias pueden ayudar a la sociedad a prepararse para cambios tan repentinos y de tan gran escala? R. Transiciones como esta son complejas. En el pasado, estos cambios ocurrían relativamente despacio, así que sus consecuencias se diluían en el fondo. Nadie recuerda exactamente cuándo aparecieron los cajeros automáticos o cuándo los kioscos de autoservicio en supermercados se volvieron normales. Esta transición será más marcada porque es más rápida, más directa y afectará a casi todos. Por eso he defendido la contención y la instalación de rieles y barandas de resguardo para la IA. Debemos limitar el ritmo del cambio para que la sociedad pueda absorberlo. ¿Qué tan rápido podemos reentrenar a los trabajadores y mejorar sus habilidades? ¿Cuánto puede el Estado de bienestar apoyar a las personas mientras cambian de trabajo u oficio? Ese es probablemente el mayor desafío hoy, porque hay fuerzas abrumadoras impulsando el despliegue de la IA a millones y miles de millones de personas. Tenemos que gestionar eso mientras suavizamos la transición donde sea posible.P. Ha anticipado que viviremos una era de sorpresas provocada por nuevas tecnologías. ¿Qué tipo de sorpresas positivas y negativas debemos esperar a medida que avanza esta ola? R. Mi mayor temor es que actores malintencionados utilicen la tecnología de formas peligrosas. Mi mayor esperanza es que todas las personas vivas puedan sentir los beneficios de una revolución de la inteligencia que les dé recursos para lograr y hacer más, dondequiera que estén.P. Robots, implantes cerebrales, edición genética, vida sintética e inteligencia artificial son, como escribes en La ola que viene, señales de un punto de inflexión histórico. ¿Cuáles son las principales promesas o aspectos positivos de esta disrupción si las cosas salen bien? R. La inteligencia artificial destila la esencia de la economía mundial –la inteligencia– en una construcción algorítmica. A corto plazo, ayudará a que las personas sean más productivas, lo que debería impulsar un crecimiento económico global significativo y compensar cualquier pérdida. Pero esto requerirá una respuesta masiva de los gobiernos para asegurar que todos mantengan sus niveles de vida, reciban capacitación y disfruten de una mejor calidad de vida que la que tienen hoy. Quienes construyen IA deben enfocarse en el mejoramiento de las capacidades físicas y cognitivas de los trabajadores –lo que les permite conservar el control de la IA, augmentation en inglés– y no en el reemplazo de los humanos. Los reguladores y responsables de políticas ya deberían pensar en las tácticas y mecanismos adecuados para ayudar a todos en esta transición. Si lo hacemos bien, podremos enfrentar algunos de los mayores desafíos de la humanidad, desde la energía limpia hasta sistemas de salud asequibles para todos.P. Muchos temen que la IA ya esté volviendo obsoletas habilidades humanas cruciales. ¿Cómo imagina que no solo compensará la pérdida de empleos, sino que también abordará grandes desafíos como el cambio climático –dado su propio y voraz consumo energético– o el acceso a la atención médica y el empoderamiento de los trabajadores? Como argumenta el Nobel de Economía Daron Acemoglu, la trayectoria actual de la IA está más enfocada en la automatización y el desplazamiento que en el mejoramiento de los trabajadores. R. Recientemente anuncié la formación de un nuevo equipo en Microsoft AI: el equipo de Superinteligencia, creado para encontrar una nueva visión de la superinteligencia humanista. Así es como la defino: la superinteligencia humanista es una IA avanzada diseñada para permanecer controlable y alineada con su misión de estar firmemente al servicio de la humanidad. Es una IA que amplifica el potencial humano, no que lo reemplaza. Esta es nuestra respuesta a lo que veo como la pregunta más importante de nuestro tiempo: ¿cómo asegurar que las formas más avanzadas de IA permanezcan bajo control humano mientras generan una diferencia tangible? La superinteligencia humanista ofrece un camino más seguro. Imagina asistentes de IA que alivian la carga mental de la vida diaria, aumentan la productividad y transforman la educación mediante un aprendizaje individualizado y adaptativo. Piensa en una superinteligencia médica capaz de realizar diagnósticos de nivel experto, con precisión y a bajo costo, que podría revolucionar la salud global, capacidades que nuestro equipo de salud en Microsoft AI ya ha mostrado. Y considera avances en energía limpia impulsados por IA que permitan generar, almacenar y eliminar abundantes cantidades de carbono de forma asequible, para satisfacer la creciente demanda mientras protegemos el planeta. El beneficio potencial para la humanidad es enorme: un mundo de rápidos avances en niveles de vida, en ciencia y en nuevas formas de arte, cultura y crecimiento. Con la superinteligencia humanista, creo que estos no son sueños especulativos, sino metas alcanzables que pueden ofrecer mejoras concretas en la vida diaria de millones de personas. Debemos celebrar y acelerar la tecnología porque ha sido el mayor motor de progreso humano en la historia. Por eso necesitamos mucho, muchísimo más de ella.P. ¿Qué tan cerca estamos de que la tecnología supere la agencia y el control humanos? ¿Qué significa enfrentar el “problema del gorila”, es decir, crear algo más inteligente que nosotros mismos? R. El objetivo debe ser crear IA que apoyen y empoderen a los seres humanos. Eso significa construir sistemas contenidos y alineados, diseñados con intención clara, compensaciones explícitas y barreras de protección adecuadas. Se trata de tomar decisiones clave de diseño e ingeniería desde el principio y luego mantenernos fieles a los principios que las sustentan.P. A menudo se describe a las IA como cajas negras. ¿Es realista esperar que podamos controlarlas y asegurar que los humanos mantendrán un rol significativo, dado su impulso hacia la autonomía? R. Sí, creo que sí. En Microsoft AI construimos Copilot, que lanzamos a mediados de octubre, un asistente de IA para todos. Es una tecnología muy nueva y diferente, distinta de cualquier herramienta que hayamos usado antes: mucho más rica y dinámica. Un asistente de IA que te acompañará en la vida, crecerá contigo, se adaptará a tus necesidades y manías, recordará lo que importa, navegará la web y actuará en tu nombre: desde reservar un viaje hasta gestionar tareas cotidianas o ayudarte con actividades complejas. Y hará todo eso de tu lado, alineado con tus intereses. Esto es algo nuevo: apoyar los roles humanos y sacar lo mejor de nosotros.P. Incluso los expertos en IA a veces no entienden del todo cómo funcionan esos sistemas. ¿Qué riesgos serios ve en esta opacidad y cómo pueden minimizarse? R. Es fundamental que asumamos la rendición de cuentas por lo que hacemos. Microsoft tiene uno de los equipos de seguridad más fuertes del mundo, y la seguridad es nuestra prioridad número uno. La contención implica que las inteligencias artificiales siempre deben ser controladas y comprobablemente responsables. Ser responsable significa ser transparente: siempre debemos tener una explicación clara de lo que hacen y por qué lo hacen. Y deben existir límites ejecutables sobre sus capacidades, con controles verificables y demostrables.P. El surgimiento de una tecnoélite o “superclase” está desplazando el poder desde los Estados hacia quienes controlan la infraestructura digital, los datos, los algoritmos y los avances biogenéticos. ¿Qué amenazas enfrentan la democracia y la equidad social como resultado? ¿Qué medidas podrían evitar un futuro dominado por la oligarquía de los tecnobros? R. Aunque entrenar grandes modelos no es algo que cualquiera pueda hacer, hay tendencias opuestas a las que señalas que vale la pena destacar. La tecnología se está difundiendo con enorme rapidez, pasando de la frontera de punta al código abierto en cuestión de meses. Los modelos pequeños y livianos mejoran cada día. Eso significa que, aunque las grandes empresas tecnológicas desempeñarán un papel, también lo harán muchas otras. Más allá de eso, los gobiernos y las compañías siguen teniendo un rol enorme en sostener nuestro contrato social. Ambos deberían expresarlo claramente. Yo ciertamente lo hago.P. Sostienes que la regulación por sí sola no puede contener estas tecnologías. ¿En qué consistiría realmente una estrategia práctica y efectiva de contención? R. La contención no solo debe mantener la tecnología bajo control, sino también gestionar sus consecuencias para las sociedades y las personas. Debe unificar ingeniería, ética, regulación y colaboración internacional en un marco coherente. Para gestionar la ola de IA, necesitamos un programa de contención que funcione en diez capas concéntricas, del núcleo técnico hacia afuera. Comienza con medidas de seguridad integradas –mecanismos concretos para asegurar resultados seguros– y continúa con sistemas de auditoría para la transparencia y la rendición de cuentas. Implica usar puntos de estrangulamiento en el ecosistema que permitan ganar tiempo para los reguladores y para desarrollar tecnologías defensivas. Implica también fomentar creadores responsables que construyan sistemas contenidos, no solo críticos desde fuera; y reformar los incentivos corporativos para evitar una carrera competitiva temeraria. Los gobiernos deben dar licencias y monitorear las tecnologías. Nuevos tratados internacionales e incluso nuevas instituciones globales serán necesarios para coordinar la supervisión. También debemos cultivar una cultura que adopte el principio de precaución, mientras los movimientos sociales presionan por un cambio responsable. Todas estas medidas deben cohesionarse en un programa integral con mecanismos que se refuercen mutuamente para mantener el control social sobre la tecnología en un momento de avance exponencial. Sin eso, cualquier otro debate –sobre ética, riesgos o beneficios– se vuelve inconsecuente. Y nada de esto será fácil.P. Pensando en lo que dice, me pregunto: ¿Es viable impulsar un acuerdo de París para la IA o crear un órgano independiente con poder real que sea aceptado por los principales actores? R. Sí, pero requerirá un enorme trabajo. La clave es encontrar formas de crear situaciones de ganancia neta en las que los países puedan colaborar para asegurar beneficios para sus sociedades mientras gestionan juntos los riesgos. Hay buenos precedentes históricos: el Protocolo de Montreal sobre los CFC (cloroflurocarbonos), el Acuerdo de París sobre cambio climático o las prohibiciones de armas. Ese es el desafío de nuestro tiempo.P. ¿Qué papel deben desempeñar las humanidades —filosofía, historia, ética, artes— en la investigación, desarrollo y aplicación de la IA? ¿Se están integrando adecuadamente perspectivas interdisciplinarias o corremos el riesgo de pasar por alto visiones humanísticas cruciales en la carrera por innovar? R. Me formé en humanidades y es algo profundamente importante para mí. Creo que hay un enorme papel para la diversidad de ideas, disciplinas y perspectivas en la IA. De hecho, es esencial. Estamos en un punto en el que las herramientas son tan avanzadas que no necesitas ser ingeniero para liderar equipos de producto o ingeniería. Tenemos un nuevo tipo de arcilla con la que esculpir experiencias de formas inéditas. Es una oportunidad increíble para escritores y artistas. Muchas personas en Microsoft AI vienen de trayectorias diversas: educadores, terapeutas, lingüistas, guionistas de comedia, publicistas, diseñadores, gamers. Me interesa incorporar creativos genuinos que no encajen en moldes tradicionales, pero que tengan amplitud y alcance, y situarlos en el corazón de la creación de productos, junto a ingenieros y gerentes.P. ¿Están estas voces influyendo realmente en decisiones centrales de diseño de la IA? ¿O se las usa para “humanizar” productos ya definidos dentro de un marco corporativo? R. Mi llamado a todos es a involucrarse. Hay un enorme papel para que la gente influya en los resultados; nada es seguro ni inevitable, y todos debemos tener un interés directo en lo que pase. En última instancia, la sociedad decidirá qué se crea y qué no. Tendemos a sobreestimar el impacto a corto plazo de la tecnología y a subestimar sus consecuencias a largo plazo. Eso significa que aún hay tiempo y un margen de maniobra enorme para que todos participemos, nos sumemos a movimientos por un cambio positivo y aprendamos a influir en estas herramientas para obtener los mejores resultados posibles.P. Para cerrar en un plano humano o humanístico: ¿puede la empatía programarse realmente en una IA, o es una ilusión peligrosa? R. Sí, se puede. Los avances de los últimos años muestran que es posible. Pero no debemos confundirla con la empatía humana ni verla como un reemplazo. En Microsoft AI lo llamamos “ingeniería de personalidad”, y es una parte importante del diseño de sistemas de apoyo, responsables y alineados con tus intereses. Se puede crear una experiencia emocional genuinamente rica. Pero no se trata de fingir una emoción real ni de sustituirla. Una IA empática debería ayudarte a conectarte con otros seres humanos. No fingirá ser algo que no es porque eso perforaría su propia ilusión. Es un equilibrio delicado, pero uno que estamos decididos a lograr.

Shares: