Qué felices éramos todos antes de 2023. Antes de que los ChatGPT y los DALL-E del mundo hubieran entrado en nuestras vidas. Antes de que sus "mágicas" capacidades comenzaran a maravillarnos mientras hacían otra cosa:
Matar internet.
Es al menos lo que analistas como Ed Zitron creen que está pasando. Según él, puede que estemos viendo morir a internet tal y como la conocíamos. Y lo peor de todo es que tiene un argumento potente para creerlo.
Ese argumento no es otro que el de cómo la IA generativa lo está contaminando todo. Lo comenzó a hacer en 2023, cuando las imágenes y textos generados por modelos de IA como los de OpenAI comenzaron a infiltrarse en las redes sociales.
Aquello parecía hasta maravilloso: qué bien escribía la IA. Qué chulas eran las imágenes —mientras no le pidieras que dibujara manos—. Compartíamos esas creaciones en Twitter, o Facebook, o Instagram, y no nos dábamos cuenta de algo importante.
Estábamos alimentando un monstruo.
Seguimos haciéndolo, pero es que además cada vez lo hacemos con mayor intensidad. Y el peligro es que esos modelos de IA que hasta 2023 se habían alimentado solo de textos e imágenes generados por humanos, ahora han vuelto caníbales.
Comen datos generados por ellas mismas, retroalimentándose una y otra vez en un peligroso círculo vicioso. Un bucle infinito que puede acabar dando como resultado unos inquietantes modelos mutantes de IA generativa. No es algo que descubramos ahora: estaba claro que la IA estaba llenando internet de contenidos. La pregunta era qué pasaría cuando esa IA se retroalimentase de esos contenidos.
Jathan Sadowski, investigador en el ámbito de la economía política de las tecnologías de la información, se adelantaba a la reflexión en febrero de 2023, cuando acuñaba el término "Habsburg AI", esto es:
"Un sistema tan entrenado con los resultados de otras IA generativas que se convierte en un mutante endogámico, probablemente con rasgos exagerados y grotescos".
La situación comienza a ser preocupante para muchos como Zitron, que indican que no estamos ante modelos de IA generativa, sino degenerativa: la calidad de internet se va a pique, asegura. Y hay ejemplos por doquier.
Abres Instagram y te encuentras con una maravillosa imagen de una mansión. Los comentarios lo dejan claro: es una maravilla. Luego, con otra de un pueblecito italiano, pero que tiene apellido: IA.
El autor ha tenido el detalle de avisar de que la imagen no es real, pero en los comentarios la gente —o los bots, a saber— parece descartar el detalle. De nuevo todos apuntan a que la imagen es una maravilla.
Una bola de nieve que no para
La escritora Carmen Pacheco compartía ese y otros ejemplos en un hilo en X/Twitter estos días, y entre esas demostraciones de una internet contaminada por la IA estaba otra peligrosa: la de los resultados de búsqueda de Google, que ya muestran en sus primeras posiciones no imágenes generadas por seres humanos, sino creaciones de una IA. Tampoco es algo nuevo: lo vimos con la joven de la perla.

El problema es que nadie parece querer (o poder) frenar esta bola de nieve gigante que se está formando. Las empresas desde luego no parecen estar por la labor: Como dice Zitron, LinkedIn "permite generar mensajes, perfiles y descripciones de ofertas de empleo mediante IA", y todas esas publicaciones acaban retroalimentando los modelos de OpenAI, porque Microsoft invirtió miles de millones en ella y tienen acuerdos al respecto.
Google permite que sus modelos de IA te escriban borradores de correos en su plataforma Google Workspace Labs, y los responsables de WordPress tienen su Jetpack AI Assistant para que los post de tu publicación los escriba una máquina —cuidado, igual no te sale bien—.
Esta fiebre por dejar que las máquinas escriban por nosotros —uf qué pereza, escribir uno mismo— está también causando un terrible impacto en Amazon, que ha visto cómo no los modelos de IA no paraban de publicar obras a diestro y siniestro. Y no hablamos de maravillosas epopeyas o ensayos, no: hablamos de resúmenes de libros reales, biografías no autorizadas y textos que (al menos de momento) no tienen valor alguno y solo sirven para contaminar la oferta existente.
El peligro se extiende a la generación de contenidos baratos y engañosos que no paran de inundar redes como TikTok, donde algunos jóvenes enseñan cómo ganar dinero con minivídeos que son una oda al clickbait y que gracias a verse millones de veces pueden resultar muy rentables.
Y como venimos diciendo, nadie parece hacer frente a esta preocupante dinámica. Google es probablemente la primera que debería reaccionar, sobre todo teniendo en cuenta que para mucha gente internet y Google son sinónimos.
La empresa liderada por Sundar Pichai tiene otros muchos problemas, pero su propia reputación peligra si su buscador empieza a dejar de mostrar contenido relevante.
Han comenzado a mover ficha con cambios en su algoritmo que teóricamente castiga contenidos pobres, de spam y generados por IA (ellos lo llaman contenidos automatizados de baja calidad), pero como dice Zitron, llevan años ganando mucho dinero gracias a ese mundo SEO paralelo creado por ellos: no parece fácil creer que vayan a resolver realmente el problema a corto plazo.
Mientras, el resto de empresas parecen felices con este aluvión de contenidos porque, sencillamente funcionan. Las mansiones generadas por IA de las que hablábamos al comienzo de este artículo triunfan en Instagram, pero también lo hicieron los alucinantes vídeos de Sora que plantean una revolución igual de peligrosa para TikTok o YouTube.
Una en la que los futuros vídeos se nutrirán de estos que ya han sido generados por una IA y que todo a punta a que serán cada vez peores para acabar convirtiendo internet en un basurero de contenidos generados por IA.
Quedará, eso sí, un refugio. El de rebuscar en la internet pre-IA. ¿Cómo? Fácil:
Como decía Dennis Müller en X (Twitter), poniendo un "before:2022" en el buscador de Google para que los resultados no incluyan aquellos generados por las máquinas.
Uf.
Imagen | Graphictwister | Google
Ver 16 comentarios
16 comentarios
stranno
Que este blog se queje de los resultados de Google es que es de puta coña.
pacojonesss
Llama la atención que os quejéis de la IA para generar contenido y Genbeta (que está bajo vuestro mismo paraguas) la utilice a cascoporro, un poquito de por favor y coherencia.
Piter_Parking
lo que está haciendo ahora la IA es lo que lleváis haciendo los medios, años y años... llenando los buscadores de contenidos vacíos... ahora la culpa será de la IA, claro. xD
Usuario desactivado
No creo que sea peor que lo que se inventan periodistas y políticos en España.
hanslopez1
luego sera raro ver en internet algo que no sea clickbait, seo y generado por IA
p2dzca
Existen varios estudios sobre qué ocurre cuando un modelo de lenguaje grande (LLM, como ChatGPT, BERT, Claude, LLaMA, etc.) se entrena con texto generado por esos modelos de forma recurrente. El deterioro es enorme y se denomina "AI Model Collapse".
1) Si los LLM se entrenan cada vez más con contenidos generados por IA, crearán contenidos de peor calidad.
2) Para no incurrir en el entrenamiento con contenidos generados por IA, se van a necesitar fuentes de datos de calidad y montones de seres humanos para corregir y afinar la información generada por la IA. Esto cuesta mucho dinero. Ya ninguna empresa que desarrolla modelos generativos de IA desvela sus fuentes de entrenamiento para evitar demandas sobre derechos de autor. Es muy probable que estas empresas lleguen a acuerdos con periódicos digitales y otras fuentes humanas de generación de contenido para mejorar la calidad de sus desarrollos de IA. Aún así, es una vía de desarrollo que está limitada:
3) Aunque no se dice habitualmente, la actual IA (que para muchas cosas es muy valiosa) no tiene un problema de falta de datos, sino de buenos algoritmos. Ninguna persona necesita leer miles de millones de documentos para aprender a escribir (los LLM, sí). Como tampoco necesita decenas de miles de horas de conducción de un coche para aprender a conducir (la conducción por IA, sí).
zero.mctavish
Alguien recuerda la historia de cuando se lanzó el teléfono? algunos decían que la gente empezaría a dejar de hablarse cara a cara , a dejar de salir de casa, la muerte de la socialización.
Pues lo mismo con la IA
Sin miedo al cambio señores
aar21
Llegamos a Matrix y Morfeo nos ofrece una pastilla azul y otra también azul porque el ya se ha tomado la azul, lo mismo que han hecho Google, GPT, etc.
Usuario desactivado
“Por las garras se conoce al león”, nada más leer el título ya sabía que era Javi, grande trilero.
Es muy interesante todo esto parece casi de peli de ciencia ficción.
PD: lo de trilero iba de buenas. por si acaso xD
togepix
Sin discutir el contenido o finalidad del artículo :
- La IA se vendió aquí , y en todos los medios como LO MÁS
- Ahora es MALA.
Y no es la primera vez que sucede esto .
Hechs
Estoy muy de acuerdo. Una cosa son los clickbaits, que ya eran malos, pero el contenido por IA está conviertiendo Internet en una fuente de información caótica y poco fiable. En cuanto buscas información medianamente compleja te aparecen unos resultados súper tediosos, llenos de "h2" con preguntas muy similares entre ellas para posicionarse en los buscadores y donde es complicado sacar nada útil.
Si esto sigue así, en nada me arrepentiré de haberme deshecho de la enciclopedia Larousse.
asdarfa
Es un buen lío, a mi me pasa mucho en pinterest que antes lo usaba para buscar dibujos de alguien en concreto o de algún estilo y ahora la mitad de lo que me devuelve son cosas hechas con IA que realmente no me interesan y a parte confunden con la obra original del artista.
Que luego dicen que no copia las cosas, pero a la que ves unos cuantos de X artista, empiezas a reconocer patrones o incluso usan las mismas caras o poses muy similares cuando habrán "prompteado" cosas distintas.