Un mundo nuevo: de la psicosis por chatbot a los sicofantes digitales
Frente a las esperanzas del reinicio del año civil, es común la expresión ‘Año nuevo, vida nueva’ pero quizá como nunca antes, los escenarios esperados para los próximos meses nos hablan de un auténtico mundo nuevo al que estaremos obligados a mirar tal como los exploradores y navegantes de hace algunos siglos hicieron: con ilusión, sin mapas cartográficos y con un auténtico temor ante lo desconocido.
Por supuesto es ya sabido que cada vez con mayor frecuencia deberemos acostumbrarnos a interactuar en el espacio público y privado con réplicas conversacionales o visuales de personas (incluso de nuestros más íntimos conocidos) mediante modelos de lenguaje masivo y deepfakes. Los avances tecnológicos son ya muy precisos en la imitación a través de síntesis de voz hiperrealista y videos generativos en tiempo real. Los riesgos son evidentes: Fraude y suplantación de identidad (mediante el phishing o a través de ingeniería social), manipulación del comportamiento de los interactuantes, erosión de la confianza en cualquier interacción digital e incluso una profunda anomia conductual.
Por otro lado, la utilización comercial o política de los datos, metadatos y códigos digitales que cada usuario va alojando en el océano informativo para entrenar modelos de patrones de pensamiento y discurso representa una atractiva frontera no sólo para los mercados de productos o de ideas sino también para la reestructuración o redefinición de las más complejas dinámicas de interacción humana y que han configurado el propio principio civilizatorio. Así, por ejemplo, el aprendizaje, el trabajo, los cuidados, el placer y hasta la espiritualidad están ya traspasados por esta nueva mediación tecnológica de la memoria y la imaginación; lo que supondrá una nueva relación no sólo con el progreso sino también con la historia.
Si nos colocamos más de lado de los integrados que de los apocalípticos en este nuevo mundo cultural (bajo los conceptos clásicos de Umberto Eco) podríamos ver no sólo con benevolencia sino con auténtico interés utilitario el cómo beneficiarnos de las superinteligencias digitales para mejorar nuestra productividad, para otorgarnos más tiempo libre (que después esté secuestrado por medios digitales ya es otra cosa) y para auxiliarnos a mejorar nuestra calidad de vida. Para los entusiastas del vibe coding, por ejemplo, la posibilidad de crear todo el software personalizado y necesario para la vida cotidiana sin contar con los más mínimos conocimientos en programación, básicamente nos pone al mando del sueño idealizado de construir un espacio social donde todos puedan participar y se les tome en cuenta en sus necesidades, donde se cree un mercado de intercambio de beneficios (y no de esfuerzos o trabajos) y en el que sean los agentes de inteligencia artificial con autonomía creciente los encargados de tomar decisiones y ejecutar acciones complejas bajo nuestra complaciente y esporádica supervisión.
Pero, para no perder los pies de la tierra hay que atender las inquietudes de los apocalípticos (pues “la mera idea de una cultura compartida por todos, producida de modo que se adapte a todos, y elaborada a medida de todos, es un contrasentido monstruoso”, diría Eco); pues la inteligencia agéntica no solo será responsable de crear acciones dañinas inmediatas como el desplazamiento laboral o la dependencia digital sino de reformular valores culturales y objetivos globales que muy probablemente no coincidan con el bienestar humano (en lo individual, colectivo, político, ecológico, económico, etcétera). Porque ¿a dónde van las interfaces cerebro-computadora o los dispositivos de la neurotecnología? ¿Cuál será el alcance de estas herramientas capaces de “leer la mente” o de estimular virtualmente la actividad cerebral de los usuarios? ¿Qué tipo de cultura de masas podría homogeneizar la realidad social desde esta privacidad mental última, con mecanismos capaces de manipular los pensamientos y los recuerdos, con algoritmos totalizantes que sentencien la realidad y amplifiquen tanto las desigualdades físicas como las cognitivas?
El mundo nuevo ya vive, por desgracia, los efectos de la ‘psicosis por chatbot’ (dependencia emocional, confusión depresiva y hasta suicidio); y el análisis social y cultural se alimenta hoy de sicofantes digitales, es decir, de sistemas que buscan obtener estatus de veracidad mediante la adulación hacia los usuarios (aún hay ingenuos que piensan que ‘vencieron a la IA’ porque alguno de los chatbots “les dio la razón”).
Pensemos en solo uno de los muchos usos de estas tecnologías. En los últimos días ha crecido la reflexión sobre si debemos enfrentarnos o adaptarnos a los griefbots (también llamados deathbots) que no son sino muy audaces simulaciones de la personalidad de una persona que ha fallecido. Con las herramientas de IA correctas y mediante modelos de simulación de lenguaje, machine learning y reproducción iterada de análisis discursivos de la ‘huella digital’ (es decir la data personal almacenada en la red) es posible crear una personalidad virtual capaz de interactuar en tiempo real y con cierta complejidad de razonamiento que, en principio, imite la voz y los gestos, las actitudes y las palabras que una persona fallecida hacía en vida. Actualmente empresas como HereAfter AI, Re-memory y Project December ya ofrecen este servicio.
Esto ya ha sido usado con especial frivolidad, utilitarismo y superficialidad por el marketing político para ‘crear emociones’ y ‘legitimar’ discursos ideológicos, plataformas o personajes políticos al “regresar de la tumba” a líderes históricos o personalidades públicas. Sin embargo, aún hay muchas lagunas de reflexión (legal, ética y moral) respecto al necesario consentimiento póstumo del uso de nuestra ‘huella digital’, sobre el impacto psicológico en el duelo que esto puede provocar, sobre los derechos de la identidad digital o el uso comercial de identidades finadas.
Por ello, antes de que este gran salto tecnológico genere su propio ‘tecnocidio’ habrá que ponderar si la muerte y la identidad deben o no ser negociables; si la privacidad debe limitarse a los datos o la ‘esencia’ de la persona; y si debemos soltar o no responsabilidades sociales ante la complejidad de los sistemas que ya recrean el mundo que estamos por vivir. Esas serán nuestras ataduras al mástil de la cordura para que, como hiciera Odiseo, naveguemos sobre las olas dominadas por el canto de las sirenas digitales sin caer en el hechizo de su algorítmica voz.
*Director VCNoticias.com
@monroyfelipe


