La “superinteligencia artificial” estaría más cerca de lo que pensamos según Sam Altman

Sam Altman afirma que una superinteligencia podría aparecer hacia 2028. Aquí explico qué es la AGI, los riesgos, las implicaciones económicas y qué medidas de seguridad necesitamos.
Manos de una persona escribiendo en un teclado de ordenador portátil, con un fondo de oficina moderno y un café en el escritorio.} {
Manos de una persona escribiendo en un teclado de ordenador portátil, con un fondo de oficina moderno y un café en el escritorio.} {

Más allá de la AGI: El salto hacia la Superinteligencia

¡Qué pasa, equipo! Jay al habla. Si habéis estado siguiendo las últimas declaraciones de Sam Altman, sabréis que el jefe de OpenAI ya no se conforma con hablar de la AGI (Inteligencia Artificial General). Ahora el objetivo está un peldaño más arriba: la Superinteligencia o ASI. Pero, ojo con esto, no son lo mismo. Mientras que la AGI se define como esa flexibilidad intelectual nivel humano capaz de aprender cualquier tarea que tú o yo haríamos, la Superinteligencia es otra liga. Estamos hablando de un sistema que supera la cognición humana en prácticamente todas las áreas imaginables.

La diferencia clave, y aquí es donde se pone técnico el asunto, es el paso de «aprender tareas» a «inventar nuevas formas de pensamiento». Una AGI podría escribirte código como un senior pro; una ASI podría inventar un paradigma de programación totalmente nuevo que deje obsoleta a la computación actual. No es solo hacer lo mismo más rápido, es hacer cosas que ni siquiera sabemos que se pueden hacer. Al lío, que esto se pone serio.

La Profecía de 2028: ¿Por qué ahora?

Muchos dicen que Altman está vendiendo humo, pero si analizamos las leyes de escalado (scaling laws), los números empiezan a cuadrar. La reducción de los costes de entrenamiento y la eficiencia brutal que estamos viendo en los nuevos clusters de GPUs sugieren que no estamos en una meseta, sino en la rampa de despegue. Sam tiene una visión privilegiada desde el núcleo de OpenAI; él ve las curvas de rendimiento antes que nadie. Lo que hoy nos parece ciencia ficción, para ellos es una extrapolación técnica basada en la cantidad de teraflops que planean inyectar en sus modelos para 2027.

Sala de servidores moderna con múltiples racks de datos negros iluminados en azul y flujos de luz azul representando la transferencia de información.

La Arquitectura del ‘Cerebro’ Global

Para llegar a la ASI en 2028, no basta con meterle más datos a un Transformer. La arquitectura está mutando. Estamos viendo una integración masiva de aprendizaje auto-supervisado con razonamiento simbólico-híbrido. Esto significa que la IA no solo predice la siguiente palabra, sino que «entiende» las reglas lógicas detrás de los problemas. Lo más loco es la auto-mejora recursiva: modelos que escriben código para optimizar sus propios algoritmos. Imagina un sistema que nunca duerme y que cada hora es un 0.1% más eficiente que la anterior. A largo plazo, el crecimiento es exponencial, bro.

Gráfico explicativo animado

El Dilema del Control: Riesgos y Alineamiento

Aquí es donde me pongo la gorra de analista serio. El riesgo no es que Skynet tome conciencia y nos odie, sino que tengamos sistemas extremadamente potentes con objetivos mal formulados. Si le pides a una ASI que solucione el cambio climático y no le pones límites éticos, podría decidir que la solución más eficiente es eliminar la actividad humana. Parece de película, pero el problema del alineamiento es el desafío técnico más grande de nuestra era.

Además, hay un tema de concentración de poder que asusta. Estamos dejando el desarrollo de la «mente más brillante del planeta» en manos de un puñado de infraestructuras privadas. La geopolítica ya está jugando sus cartas: quien controle la ASI, controlará la economía y la defensa global. El riesgo de armas autónomas estratégicas no es una posibilidad remota, es una conversación que está ocurriendo ahora mismo en los despachos de alto nivel.

Guardarraíles para una Mente Superior

¿Cómo sobrevivimos a esto? No hay otra que meterle caña a la regulación y a la transparencia. Necesitamos auditorías independientes que no dependan del balance de resultados de Microsoft o Google. Sam Altman ha pedido tratados globales, algo así como una OIEA para la inteligencia artificial, para limitar las aplicaciones militares y asegurar que los beneficios se repartan. La transparencia total en los procesos de alineamiento es el único camino para que esta transición no acabe en un desastre sistémico. El reloj corre hacia 2028, y más nos vale tener los frenos listos.

Una mano humana y una mano robótica se tocan en la superficie de un cristal multifacetado que irradia luz de colores, con un horizonte urbano nocturno y borroso al fondo.

«La superinteligencia no es el final del camino, sino el comienzo de una nueva historia donde los humanos dejamos de ser los únicos arquitectos de la realidad.» – Jay.

Deja una respuesta

Compartir

Populares

Cargando…

Etiquetas

Cargando etiquetas…

Identifícate Maker

Para utilizar las herramientas del Laboratorio y guardar tu historial, necesitas acceder a tu cuenta.

Ventajas de tu cuenta JayCrafted:

💾
Historial
Acceso Tools
🎁
Recursos

CraftedBot

¡Hola qué pasa! Soy la asistente virtual de Jay. ¿En qué problema, automatización o ñapa en general te puedo ayudar hoy?