La inteligencia artificial y la vuelta a las preguntas existenciales
Un recurso creativo novedoso en el programa de Susana Giménez generó debate sobre los alcances de la IA y su capacidad de engañar a las audiencias. Una discusión que merece, para empezar, una vuelta a la lectura de los clásicos.
1

Desconfianza. @Susana Giménez, ícono nacional, se está dando los gustos en vida: esta semana sentó en su living a la protagonista de La Mary, o sea a sí misma cuando era una joven promesa de 30 años, y se entrevistó sin pudor. La producción buscó una actriz que se parecía a la diva en 1974 y la entrenó para que imitara sus gestos y su voz. Hasta acá, todo normal. Pero el truco se volvió asombroso cuando un equipo de expertos en IA implantó digitalmente la cara de la joven Susana en la de la actriz, como si fuera una máscara. El resultado fue impactante.
Hay quienes piensan que a nuestra generación le está tocando vivir el mayor cambio de paradigma de la historia. En algún momento, la humanidad dejó de creer que los fenómenos naturales tenían una explicación sobrenatural. Más tarde, asumimos que la Tierra giraba alrededor del Sol y no al revés. Aunque nos replanteamos una y otra vez nuestras creencias, nunca antes habíamos tenido que indicarle a nuestro cerebro que desconfiara sistemáticamente de lo que dicen nuestros sentidos. En ese punto estamos hoy.
El fenómeno plantea interrogantes que no tienen una respuesta obvia. Algunos de sus posibles ángulos merecen reflexión:
Derecho sobre la propia imagen. La tecnología hoy permite crear personajes digitales idénticos a los reales. Se los puede hacer cantar, bailar, gritar, matar, violar. Lo que se quiera: las acciones más nobles y las mayores iniquidades. No hay límite. El consenso, sin embargo, dice que cada quien tiene derecho a administrar su propia imagen: nadie debería poder crear un personaje digital de nosotros sin nuestro consentimiento.
Madurez de las audiencias. En algún momento, lo que decían los medios masivos de comunicación era palabra santa. La propaganda era capaz de moldear cerebros, como señalaba Harold Lasswell. Con el tiempo, aprendimos a desconfiar y los artificios de los comunicadores perdieron su magia. La historia se repite: hoy nos preocupa el universo fake que es capaz de generar la IA. ¿Será hasta que, de nuevo, perdamos la ingenuidad y ya no caigamos en el engaño?
Ética de los comunicadores. Siempre hubo cosas que se podían hacer y cosas que no. Lo que estaba vedado era engañar: decir que es verdad lo que es mentira o que es mentira lo que es verdad. La IA no hace más que multiplicar los recursos para construir relatos. Y como lo puede casi todo, resulta tentadora. Por eso, hasta tanto las audiencias aprendan los trucos, hará falta un full disclosure. Aunque rompa el encanto.
Responsabilidad de los gobiernos. ¿Y ahora quién podrá defendernos? Una parte de la ciudadanía espera que el Estado limite y controle; otra, desconfía de la torpeza de los gobiernos y prefiere el laissez faire de las empresas tecnológicas. Unos temen los excesos de la IA; otros, los cercenamientos de la libertad. Una de las definiciones de “ideología” es de quién desconfío más.
Susana estaba feliz: la entrevista exitosa a su ávatar le permitió olvidar el mal trago que le había hecho tomar Pampita hace unos días. Probablemente la diva no sospeche que la Mary fake, liviana como es, está también disparando preguntas profundas en torno a la existencia humana: si debemos darles crédito a nuestros ojos y nuestros oídos, si la verdad existe, y si existe, qué es. Platón y Aristóteles, como clásicos que son, recobran su vigencia.
Ilustración: gentileza GM+AI
2
Tres preguntas a Ramón López de Mántaras. Es un físico e informático español, experto en Inteligencia Artificial. Es el fundador del Instituto de Investigación en Inteligencia Artificial del CSIC (Consejo Superior de Investigaciones Científicas).
—Como pionero en España en materia de IA, ¿diría que tenemos que festejar el avance de esta tecnología? —Bueno, un poco de todo, ¿no? Siempre hay debate cuando aparece una tecnología nueva: tiene las dos caras, el doble filo, el doble uso. Desde la energía atómica, o la energía nuclear, se han hecho cosas muy positivas, pero también cosas enormemente negativas como las bombas atómicas. En función de cómo lo apliques será algo beneficioso para la sociedad o no. Y estamos viendo exactamente lo mismo con la IA. Sobre todo últimamente. Desde los 80, yo mismo y mucha gente más ya éramos conscientes de que teníamos ciertas responsabilidades sociales. Incluso fui uno de los primeros miembros de la Asociación Internacional de Informáticos para la Responsabilidad Social. Fomentamos congresos y debates sobre sus posibles impactos negativos.
—¿Cuáles serían esos impactos?
—Bueno, ahora, en este momento, con la Inteligencia Artificial Generativa el impacto ha empeorado. La IA Generativa es, por ejemplo, el ChatGPT. Lo que la gente ha visto en estos dos últimos años, y de lo que hablan los periódicos, todo eso es esta IA que llamamos Generativa. Genera texto. Genera imágenes falsas, imágenes generadas por ordenador que ¡pueden clonar personas! Incluso se puede clonar la voz. O sea, generar una voz que suene exactamente como la voz de la persona que queramos. Esto posibilita desprestigiarla, o usarla para desprestigiar a otro. Hay expertos que trabajan en eso. Por ejemplo, esta entrevista que estamos teniendo, por web, si se hace pública en YouTube, cualquier experto en IA puede hacer un clon mío, con mi voz o con la suya. La IA actual puede analizar mi voz, los rasgos de mi voz, también mi imagen y hacer un clon mío digital. Y me pueden hacer decir lo que no estoy diciendo, sino lo que ellos quieran que yo diga.
—¿Cómo va el tema regulaciones?
—Hay tres grandes polos de desarrollo de la IA, que son Europa Occidental, China y América del Norte. Los modelos que hay detrás son dispares. Me refiero a modelos en cuanto a tomar medidas por el impacto social de la IA. En los Estados Unidos el modelo está basado en los beneficios económicos, es el modelo de las grandes empresas tecnológicas Google, Amazon, Apple, Facebook, Microsoft... es decir, las más grandes, aunque también hay otras menos grandes, como OpenAI. En otras palabras, la mentalidad imperante en Silicon Valley, basada en que les dejen hacer, que no les regulen, intenta convencernos de que ya son conscientes del problema y que ya lo harán bien. En principio, no tengo por qué pensar, no hay pruebas al menos, que los responsables de esas grandes empresas actúen de mala fe. Pero el problema es que están obligados a obtener resultados económicos a corto plazo y esto los condiciona completamente. Están atrapados en una espiral competitiva enorme para ver quién se lleva el trozo de pastel más grande del mercado de la IA generativa, y por lo tanto dicen unas cosas y hacen otras. Y los gobiernos no se atreven a regular.
Las tres preguntas a Ramón López de Mántaras se tomaron de la entrevista hecha por Ana D’Onofrio, publicada originalmente en La Nación. Para acceder a la conversación original, podés hacer click acá.
3
Resistencia a la IA. Es el futuro, pero no todo el mundo quiere abrazarla. ¿Por qué? ste artículo de la Harvard Business Review expone cinco razones que pueden explicar las razones por las cuales la IA se va adoptando lentamente y no al ritmo que marca el progreso tecnológico: 1) Es percibida como demasiado opaca; 2) La falta de emociones; 3) La inflexibilidad; 4) El exceso de autonomía; y 5) La gente valora la interacción humana. Llevamos milenos interactuando entre nosotros: las máquinas no nos seducen lo suficiente. Quizá, al final, el límite a la IA no esté impuesto por las regulaciones sino por la naturaleza humana.
4
Academia. "Carewashing” es el término que designa la declamación de ciertas empresas que alardean del cuidado que tienen de sus empleados sin que los hechos lo confirmen. Un estudio de Gallup muestra que en los Estados Unidos el porcentaje de personas que está completamente de acuerdo con la afirmación de que las empresas de ocupan del bienestar general de sus empleados cayó del 49% en 2020 al 21% en 2024. Este artículo analiza este fenómeno y sus ángulos comunicacionales: muchas organizaciones proclaman públicamente una preocupación por sus colaboradores que se vuelve en contra de su reputación si no es sostenida con hechos incontrastables. Gran tema relacionado con la marca empleadora.
5
Oportunidades laborales
Hite inició su búsqueda de Social Media Strategist.
Ignis Media Agency abrió la búsqueda para la posición de Social Media Manager.
¡Hasta el próximo miércoles!
Juan.
Con el apoyo de

COMMS es una iniciativa de

El contenido de Comms no necesariamente representa la posición institucional del Círculo DirComs. El Círculo de Directivos de Comunicación (DirComs) es una asociación civil que busca promover el intercambio de conocimiento y experiencias entre los máximos responsables de comunicación corporativa, relaciones institucionales, asuntos públicos y gubernamentales de las principales empresas del país.