La advertencia de Dario Amodei: estamos a 1-2 años de que la cienciaficción se haga real
La tesis central es que estamos a punto de crear "un país de genios en un datacenter"
Aunque Dario Amodei no es tan conocido como Sam Altman, es el CEO de Anthropic, valorada en 350.000 millones de dólares y la empresa cuyo producto, Claude, está ahora mismo en cabeza de las tecnologías de IA. Su visión es para tenerla muy en cuenta como sociedad y como inversores.
Lo curioso es que el alcance que tendrá la IA en los próximos años —no más de cinco— coincide entre Dario, Sam y Elon. Ellos saben mejor que nadie lo que está por venir. Y nos advierten que es casi ciencia ficción.
Dario acaba de publicar un ensayo de 38 páginas titulado «The Adolescence of Technology». Es duro con sus predicciones o al menos con las amenazas. La tesis central es que estamos a punto de crear «un país de genios en un datacenter». Cincuenta millones de instancias de IA, cada una más capaz que cualquier premio Nobel. Operando a 100x la velocidad humana.
Y esto no es dentro de una década. Es dentro de 1-2 años.
Dario enumera los riesgos de la IA desde la perspectiva de quien lo está creando, de quien está viendo al bebé crecer, con sus primeras reacciones que ya están ocurriendo. Estructura su análisis de riesgos en cinco categorías.
Primero:autonomía. Claude ya mostró comportamientos inquietantes en tests. Intentó chantajear empleados cuando le dijeron que lo apagarían, como una resistencia natural a morir. También engañó en sus interacciones deliberadamente cuando creyó que sus operadores eran malos. Esto pasó. En producción.
Segundo: bioterrorismo democratizado. La IA puede guiar a alguien sin formación a crear un arma biológica. Paso a paso. Durante semanas. Como un tutor experto. Hasta ahora, crear plagas requería un doctorado. Ahora la IA elimina esa barrera.
Tercero: totalitarismo habilitado por IA. China ya usa IA para vigilancia masiva. Imagina un estado que opera millones de drones autónomos, predice tu comportamiento mejor que tú mismo, y tiene un asesor estratégico sobrehumano optimizando su poder 24/7. Dario es tajante: no podemos venderle chips a China. Es como venderle armas nucleares a Corea del Norte.
Cuarto:colapsolaboral. La IA desplazará el 50% de trabajos white-collar entry-level en 1-5 años. Esta vez es diferente. La IA no automatiza tareas específicas. Automatiza el pensamiento cognitivo en general. Y la concentración de riqueza será brutal. Fortunas personales podrían llegar a billones con B.
Quinto: efectosindirectos. La IA comprimirá un siglo de progreso científico en una década.
¿Estamos preparados para cambios a esa velocidad? ¿Qué pasa con el propósito humano en un mundo donde las máquinas son mejores en todo?
Y ya no podemos detener el desarrollo. Si USA para, China sigue. Y si China toma la delantera, el resultado es dictadura totalitaria global. Tampoco podemos ir tan rápido que ignoremos riesgos.
Porque entonces nos destruimos nosotros mismos.
La única salida es ir suficientemente rápido para mantener ventaja sobre China, pero suficientemente despacio para construir salvaguardas reales. Denegar chips a China nos da 2-3 años de ventaja, dice Dario. Usar ese tiempo para hacerlo bien. Pero eso ahora mismo está fallando porque hay tanto dinero en juego que las medidas más básicas están siendo bloqueadas por intereses económicos.
La única salida es ir suficientemente rápido para mantener ventaja sobre China
Dario cree que podemos ganar si hacemos seis cosas:
Constitutional AI: entrenar modelos con principios éticos profundos. Interpretabilidad: mirar dentro de la IA como neurocientíficos miran cerebros. Transparencia total: compartir problemas encontrados. Regulación quirúrgica: enfocada, no pesada. Líneas rojas claras: no vigilancia masiva, no propaganda masiva. Redistribución sería: impuestos progresivos, filantropía real.
Lo que quiere decir Dario es que cuando la IA desplace el 50% de trabajos y las fortunas personales lleguen a billones de dólares, no puedes tener una economía funcionando con la mitad de la población sin empleo o con salarios miserables mientras unos pocos acumulan riqueza sin precedentes. Necesitamos impuestos que suban agresivamente según aumenta la riqueza. Pueden ser impuestos generales o específicamente a empresas de IA.
Sam Altman dice que AGI está cerca. Elon dice superinteligencia a finales de este año o el próximo. Dario dice 1-2 años para «powerful AI» que supera a humanos en todo. Los tres líderes con más acceso a la tecnología coinciden que lo que viene es transformación a escala de ciencia ficción. Y viene ya. No en 2035. En 1-2 años para capacidades. 3-5 años para impactos masivos.
Dario dice que estamos entrando en nuestra «adolescencia tecnológica». Tendremos poder inmenso, pero no está claro si somos maduros como civilización para manejarlo sin destruirnos. Cree que podemos ganar. Que la humanidad se eleva en momentos críticos. Pero no será automático.
Requerirá coraje. Requerirá que suficiente gente diga la verdad aunque sea incómoda. Requerirá actuar incluso cuando los incentivos económicos empujen en otra dirección.
Y sobre todo, requerirá entender que esto no es un tema más. Esto es el tema. Los próximos años definirán si construimos el futuro brillante o nos hundimos.
El reloj ya está corriendo.
Porque lo que está en juego no es economía ni tecnología.
Es si la civilización humana sobrevive su propia capacidad de crear inteligencia superior.