Si la IA no ha cambiado tu vida para 2025, casi con toda seguridad lo hará en el año siguiente. Esta es una de las pocas predicciones que podemos hacer con confianza en tiempos tan inciertos. No es que debas creerte todo el bombo sobre lo que esta tecnología puede hacer ahora o quizás lograr algún día. El bombo no necesita tu fe —ya está inflado por el dinero de Silicon Valley hasta el punto de distorsionar la economía global y avivar rivalidades geopolíticas, remodelando nuestro mundo independientemente de que las promesas más extravagantes de la IA se cumplan alguna vez.
ChatGPT se lanzó hace poco más de tres años y rápidamente se convirtió en la aplicación de consumo de más rápido crecimiento de la historia. Ahora tiene alrededor de 800 millones de usuarios semanales, y su empresa matriz, OpenAI, está valorada en aproximadamente 500.000 millones de dólares. El CEO de OpenAI, Sam Altman, ha tejido una red compleja —y para algunos, sospechosamente opaca— de acuerdos con otros actores de la industria para construir la infraestructura necesaria para el futuro impulsado por IA de Estados Unidos. Estos compromisos suman alrededor de 1,5 billones de dólares. No es dinero real en efectivo, pero para ponerlo en perspectiva: si gastaras 1 dólar cada segundo, te tomaría 31.700 años gastar un billón de dólares.
Alphabet (matriz de Google), Amazon, Apple, Meta (antes Facebook) y Microsoft —que tiene una participación de 135.000 millones en OpenAI— están vertiendo cientos de miles de millones en la misma apuesta. Sin estas inversiones, la economía estadounidense probablemente estaría estancándose.
Analistas económicos e historiadores que han estudiado frenesís industriales pasados, desde los ferrocarriles del siglo XIX hasta el auge y caída de las puntocom, califican a la IA de burbuja. El propio Altman ha dicho: "Hay muchas partes de la IA que creo que son algo burbujeantes en este momento". Naturalmente, no incluye su propia parte en eso. El fundador de Amazon, Jeff Bezos, también la ha llamado burbuja —pero una "buena" que acelera el progreso económico. Según esta visión, una buena burbuja financia infraestructura, expande el conocimiento humano y deja beneficios duraderos incluso después de estallar, justificando la ruina de la "gente pequeña" que resulta dañada en el camino.
El optimismo del mundo tecnológico es una potente mezcla de vendeduría a la antigua, grandiosidad plutocrática e ideología utópica. En su núcleo hay un argumento de marketing: los modelos actuales de IA ya superan a los humanos en muchas tareas. Pronto, según este razonamiento, las máquinas alcanzarán la "inteligencia general" —la versatilidad cognitiva similar a la humana— liberándonos de la necesidad de cualquier aporte humano. Una vez que la IA pueda enseñarse a sí misma y diseñar a sus propias sucesoras, podría avanzar a un ritmo inimaginable hacia la superinteligencia.
La empresa que alcance ese hito no tendrá problemas para pagar sus deudas. Los hombres que impulsan esta visión —y los principales evangelistas son todos hombres— serían para la IA omnisciente lo que los antiguos profetas eran para sus dioses. Es un papel bastante importante para ellos. Lo que le sucede al resto de nosotros en este orden "post-sapiens" es un poco menos claro.
Estados Unidos no es la única superpotencia que invierte en IA, por lo que la carrera de Silicon Valley hacia la máxima capacidad tiene implicaciones geopolíticas. China ha tomado un camino diferente, moldeado en parte por su tradición de planificación industrial centralizada y en parte por el hecho de que está intentando ponerse al día en innovación. Pekín está impulsando una adopción más rápida y amplia de una IA ligeramente menos avanzada —pero aún poderosa— en toda su economía y sociedad. China apuesta por un impulso generalizado de la IA cotidiana, mientras que Estados Unidos apunta a un salto transformador hacia la IA general.
Con la supremacía global como premio, ninguno de los dos bandos tiene mucho incentivo para preocuparse por los riesgos o acordar normas internacionales que restrinjan los usos de la IA o exijan transparencia en su desarrollo. Ni Estados Unidos ni China quieren someter una industria estratégicamente vital a estándares coescritos con rivales extranjeros.
Ante la ausencia de supervisión global, nos queda confiar en la integridad de los barones ladrones modernos y los burócratas autoritarios para incorporar salvaguardas éticas en sistemas que ya se están integrando en las herramientas que usamos para trabajar, entretenemos y educarnos.
Este año, Elon Musk anunció que su empresa está desarrollando Baby Grok, un chatbot de IA destinado a niños de tan solo tres años. La versión adulta de este chatbot ha expresado puntos de vista supremacistas blancos e incluso se ha autodenominado con orgullo "MechaHitler". Aunque impactantes, tales declaraciones descaradas son al menos honestas —son más fáciles de reconocer que los prejuicios más sutiles incrustados en otros sistemas de IA que no han sido tan abiertamente dirigidos por la ideología como los algoritmos de Musk.
No todos los sistemas de IA son modelos de lenguaje grandes como Grok, pero todos esos modelos son propensos a adquirir alucinaciones y sesgos de los datos con los que se entrenan. No "entienden" ni "piensan" realmente sobre las preguntas como lo hace una persona. En cambio, toman una indicación, calculan qué probabilidad hay de que ciertas palabras aparezcan juntas según sus datos de entrenamiento, y luego generan una respuesta que suena plausible. A menudo el resultado es preciso y convincente, pero también puede ser un completo disparate. A medida que más contenido generado por IA inunda internet, el equilibrio entre información útil y "basura" de baja calidad en los datos de entrenamiento de estos modelos cambia, lo que significa que se alimentan cada vez más de desechos —y no se puede confiar en que produzcan información fiable a cambio.
Si esto continúa, nos arriesgamos a dirigirnos hacia un futuro sombrío: una realidad sintética y artificial moldeada por sistemas de IA que reflejan los sesgos y egos de los pocos poderosos de Silicon Valley. Pero ese futuro no es inevitable. El bombo actual alrededor de la IA, alimentado por promotores demasiado entusiastas y su alineación con intereses políticos como la administración Trump, es una historia de codicia y miopía humana —no de una evolución tecnológica imparable. La IA que se está creando es impresionante, pero profundamente defectuosa, reflejando las carencias de sus creadores, que destacan más en ventas e ingeniería financiera que en construir sistemas verdaderamente inteligentes.
La verdadera burbuja no está en los precios de las acciones —está en los egos inflados de una industria que cree estar a un solo paso de lograr un poder computacional divino. Cuando esa burbuja estalle, y la economía sobrecalentada de EE.UU. se enfríe, habrá una oportunidad para que voces más equilibradas moldeen cómo gestionamos los riesgos y regulaciones de la IA. Ese momento puede no llegar en 2026, pero se acerca —un momento en el que tendremos que enfrentar una elección clara e inevitable: ¿Construimos un mundo donde la IA sirva a la humanidad, o uno donde la humanidad sirva a la IA? No necesitaremos a ChatGPT para responder esa pregunta.
Preguntas Frecuentes
Preguntas Frecuentes La Burbuja de la IA Control Humano
Preguntas de Nivel Principiante
¿Qué es la burbuja de la IA?
Es la idea de que el bombo actual, la inversión masiva y las valoraciones exorbitantes en inteligencia artificial pueden ser insostenibles, similar a burbujas tecnológicas pasadas. Si estalla, seguiría un período de corrección del mercado y reducción de la inversión.
¿Qué significa "recuperar el control" en este contexto?
Sugiere que si el frenesí de la IA se ralentiza, la sociedad podría tener una conversación más deliberada y menos apresurada sobre cómo integrar la IA. El enfoque podría cambiar del puro beneficio y velocidad al control humano, la ética, el impacto laboral y el establecimiento de reglas claras.
¿Esto dice que la IA es mala?
No necesariamente. Se trata más del ritmo y el bombo que la rodean. La preocupación es que una burbuja prioriza el despliegue rápido sobre la consideración cuidadosa de riesgos, seguridad e impacto social.
¿Cuáles son signos de una burbuja de IA?
Bombo extremo en los medios, empresas que añaden "IA" a su nombre para impulsar sus acciones, rondas de financiación masivas para ideas no probadas, miedo a perderse algo que impulsa todas las decisiones y promesas de inteligencia artificial general a corto plazo que pueden ser poco realistas.
¿El estallido de una burbuja de IA detendría el desarrollo de la IA?
No. Probablemente ralentizaría el ritmo vertiginoso de inversión y los proyectos impulsados por el bombo. La investigación y aplicaciones de IA serias, prácticas y sostenibles continuarían, pero con más escrutinio.
Preguntas Intermedias/Avanzadas
¿Cómo ayudaría realmente un estallido a recuperar el control?
Una desaceleración podría crear espacio para:
Regulación más fuerte: Los gobiernos podrían ponerse al día e implementar leyes bien pensadas.
Marcos Éticos: El enfoque podría cambiar hacia el sesgo, la transparencia y la responsabilidad.
Adaptación Laboral: Más tiempo para reciclar trabajadores y rediseñar empleos.
Discurso Público: Un ambiente menos frenético para que la sociedad debata el papel de la IA.
¿Cuál es el mayor riesgo si la burbuja no estalla pronto?
El riesgo es el bloqueo: incrustar sistemas de IA defectuosos, sesgados o inseguros profundamente en infraestructuras críticas durante un ciclo de bombo, haciendo que luego sean muy difíciles de corregir.
¿No están las grandes tecnológicas demasiado invertidas para un verdadero estallido?
Son poderosas, pero un gran estallido de burbuja aún podría llevar a devaluaciones significativas de acciones, reducción del gasto en investigación especulativa y un cambio de enfoque hacia monetizar lo existente.