Ilya Sutskever, cofundador de OpenAI y ex científico jefe de la compañía, ha levantado 2.000 millones de dólares más para su nueva startup Safe Superintelligence (SSI), alcanzando una valoración de 32.000 millones. Lo curioso es que nadie sabe exactamente qué están construyendo. Ni producto, ni hoja de ruta, ni demo. Solo una misión: crear una superinteligencia segura. Y la gente pone el dinero.
El enigmático proyecto del ex de OpenAI
Sutskever abandonó OpenAI en mayo de 2024 tras verse envuelto en el intento fallido de apartar a Sam Altman. Desde entonces, ha fundado SSI junto a Daniel Gross y Daniel Levy con una promesa casi mesiánica: desarrollar la primera superinteligencia artificial segura del mundo. Literalmente, “un único objetivo y un solo producto”.
¿Y qué sabemos de ese producto? Nada. Su web es poco más que un manifiesto y una dirección de correo. Pero los inversores no parecen preocupados. Según Financial Times, el fondo Greenoaks lideró esta nueva ronda, que se suma a los 1.000 millones ya recaudados anteriormente.
¿Inversión visionaria o fiebre especulativa?
Que una empresa sin producto funcional alcance valoraciones de Big Tech es una señal de que algo está roto o de que algo muy gordo se está gestando. SSI no tiene clientes, no tiene ingresos y su web parece sacada de 1999. Pero la palabra mágica “superinteligencia” hace que los billetes vuelen.
El movimiento recuerda al clima en torno a xAI, la IA de Elon Musk, que también ha levantado cifras astronómicas con promesas más que con realidades. Lo analizamos en este artículo sobre Grok y su app para Android.
¿De qué hablamos cuando hablamos de "superinteligencia"?
El término se ha usado tanto que empieza a perder sentido. Para algunos, es una IA general capaz de superar al ser humano en cualquier tarea cognitiva. Para otros, es solo un reclamo de marketing. Pero detrás del concepto hay riesgos reales, como la autonomía sin control o la falta de transparencia en los modelos. Riesgos que Sutskever, paradójicamente, ayudó a alimentar desde OpenAI.
Y si te interesa ver cómo otras empresas están entrenando IAs con ética dudosa, no te pierdas el análisis sobre el uso de libros pirateados en los modelos de Meta.
Lo que nadie te cuenta sobre esto
Este tipo de movimientos son un espejo incómodo: revelan que la carrera por la IA no la gana quien tenga mejor tecnología, sino quien prometa el relato más ambicioso. Mientras tanto, la comunidad técnica mira con escepticismo cómo las promesas infladas se compran a precio de oro. Y así, entre humo, hype y capital riesgo, seguimos avanzando… ¿hacia dónde?

0 Comentarios