Por Juan Pablo Ojeda
El futuro ya empezó, y no en forma de ciencia ficción, sino con líneas de código, centros de datos y millones de personas que hoy interactúan con sistemas como ChatGPT sin pensar dos veces. Así lo plantea Sam Altman, CEO de OpenAI, quien en un reciente ensayo aseguró que el despegue de la superinteligencia digital ya comenzó. Y con él, también se acelera un cambio profundo en la manera en que vivimos, trabajamos y entendemos el progreso.
Altman no habla en términos ambiguos. Afirma que “ya pasamos el horizonte de sucesos”, como si la humanidad hubiese cruzado un punto de no retorno. Según él, la inteligencia artificial ya es más poderosa que cualquier ser humano en la historia, y aunque sus capacidades aún evolucionan, su impacto ya se siente todos los días: desde científicos que triplican su productividad con asistentes de IA, hasta usuarios comunes que resuelven tareas complejas en segundos.
La transformación, dice, no es ruidosa ni espectacular, sino silenciosa y progresiva. A diferencia de las películas, no hay robots caminando por las calles, pero sí hay algoritmos que toman decisiones que afectan millones de vidas. Esa es la nueva cara del poder tecnológico.
Y con ese poder llega una advertencia: una pequeña desalineación en los sistemas puede escalar a problemas enormes. Altman advierte que la IA, si no se gestiona con cuidado, puede convertirse en un arma de doble filo. El dilema no es solo técnico, sino moral y político: ¿quién decide cómo debe actuar una inteligencia más poderosa que nosotros?
Uno de los focos principales del ensayo es el impacto en el empleo. Altman sostiene que muchas profesiones actuales desaparecerán —no como una tragedia, sino como parte del progreso. Retoma el ejemplo de los faroleros, aquellos trabajadores que encendían las lámparas en las calles antes de la electricidad. “Nadie desea volver a ser farolero”, escribe. Así será con muchas ocupaciones que hoy consideramos indispensables.
También señala que, así como un agricultor de hace mil años vería nuestros trabajos actuales como meros entretenimientos de lujo, las profesiones del futuro serán incomprensibles para nosotros. Lo que hoy parece esencial, mañana será historia.
Sin embargo, Altman no cae en el technooptimismo sin matices. Reconoce dos grandes amenazas: el problema de alineación —lograr que la IA cumpla objetivos humanos reales y no solo optimice algoritmos diseñados para captar atención—, y la concentración de poder, ya que el riesgo de que unas pocas empresas o países controlen la IA podría generar desigualdades nunca vistas.
Por eso insiste en que la superinteligencia debe ser accesible, abierta y no centralizada. Es decir, que los beneficios se distribuyan y no se conviertan en herramientas de vigilancia, manipulación o dominación económica.
En resumen, el mensaje de Sam Altman es claro: la superinteligencia ya está en marcha, y aunque trae consigo un futuro lleno de posibilidades, también exige decisiones urgentes y responsables. El mundo cambió, y ahora depende de nosotros decidir cómo queremos vivir con estas nuevas inteligencias.