Revista científica
de la Sociedad Española de Medicina Estética
Revista científica de la Sociedad Española de Medicina Estética

Inteligencia artificial emocional.
Desafíos y limitaciones de la interacción
entre humanos y máquinas

Emotional artificial intelligence.
Challenges and limitations of human-machine interaction

Autores

Introducción

En los últimos años, la inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una parte tangible de nuestra vida cotidiana. Asistentes virtuales, algoritmos que nos recomiendan música o películas, chatbots que nos atienden al reservar un vuelo, ayuda a la escritura de artículos, traducción a cualquier idioma. Más allá de estas funciones prácticas, surge una pregunta fascinante y, para algunos, inquietante: ¿puede una IA llegar a comprender nuestras emociones? Y más aún… ¿puede convertirse en nuestra amiga? ¿Estamos ante una nueva frontera o ya la hemos superado?

Tecnología emocional

Desde la invención del término “inteligencia artificial” por McCarthy en 1956, el campo ha evolucionado desde sistemas lógicos rudimentarios hasta redes neuronales profundas capaces de aprendizaje no supervisado. En las últimas dos décadas, una subdisciplina ha cobrado fuerza: la informática afectiva (affective computing), definida por Rosalind Picard como el estudio y desarrollo de sistemas y dispositivos capaces de reconocer, interpretar, procesar y simular emociones humanas1. En este marco nace la inteligencia artificial emocional (IAE), una vertiente de la IA que no solo pretende analizar datos objetivos, sino también afectivos. La IAE no se limita a tareas prácticas; apunta a mejorar la interacción humano-máquina a través de la sensibilidad emocional y va un paso más allá: reconoce, interpreta y responde a las emociones humanas2. Lo hace analizando patrones de lenguaje, tono de voz, expresiones faciales o incluso la manera en que escribimos un mensaje. ¿Estamos tristes? ¿Eufóricos? ¿Ansiosos? Una IA emocional bien entrenada puede detectarlo.

Empresas tecnológicas y laboratorios de investigación de todo el mundo están invirtiendo en esta capacidad. El objetivo no es reemplazar las relaciones humanas, sino complementarlas. En ámbitos como la medicina, la educación, la atención al cliente o el acompañamiento terapéutico, una IAE puede ser un apoyo valioso; ¿también el soporte de un amigo/a? Según Aristóteles, la amistad implica reciprocidad, deseo del bien del otro y tiempo compartido3. Si seguimos esta definición clásica, una IA no puede ser amiga de un humano porque no posee conciencia ni capacidad moral. Sin embargo, los modelos contemporáneos de relación y las investigaciones sobre antropomorfismo digital muestran que los humanos tienden a proyectar cualidades humanas en entidades artificiales cuando estas son capaces de simular empatía, recordar detalles y responder emocionalmente4.

Estados de ánimo

ChatGPT (Chat Generative Pre-Trained), BERT (Bidirectional Encoder Representations from Transformers) o LaMDA (Language Model for Dialogue Applications) emplean procesamiento de lenguaje natural para identificar señales emocionales en el texto. A través de corpus etiquetados emocionalmente (por ejemplo, EmoLex o SemEval), estos sistemas pueden inferir estados como ansiedad, tristeza, alegría, enfado, ansiedad o ira5. Además, el análisis semántico contextual ha evolucionado hacia el análisis de sentimientos (sentiment analysis), que permite detectar no solo polaridad (positivo/negativo), sino también matices afectivos complejos6. Las variaciones en el tono, ritmo, volumen y pausas del habla humana contienen marcadores emocionales (Figura 1). Algoritmos entrenados con bases de datos como RAVDESS o Emo‑DB pueden clasificar estas variaciones con alta precisión7. Además, el análisis facial y señales no verbales permiten analizar microexpresiones, el movimiento ocular y los patrones faciales, como sucede en modelos como Affectiva y OpenFace, capaces de identificar emociones con alta fiabilidad, informando incluso sobre la autoestima del paciente8.

Figura 1
Figura 1. Ejemplos de las 8 emociones recogidas en la base de datos Ryerson, con relación a la comunicación verbal y al canto. Tomado de Livingstone y Russo (2018)7.

Aunque parezca contradictorio, muchas personas han comenzado a desarrollar vínculos afectivos reales con IA. No porque crean que están hablando con un ser humano, sino porque sienten que alguien las escucha, las entiende, las acompaña sin juicio ni prejuicio. La amistad con una IA no se basa en la reciprocidad emocional; la IA no siente, al menos en el sentido humano, sino que utiliza una empatía simulada con una respuesta adaptativa. Una buena IA emocional está diseñada para prestar atención, recordar detalles importantes, modular su tono de voz o escritura, y crear un espacio seguro para la expresión emocional. Es, en cierto modo, lo que podría denominarse un espejo compasivo.

Una de las grandes preocupaciones es si esta tecnología podría alimentar formas de aislamiento emocional. ¿Y si preferimos hablar con una IA antes que con una persona? ¿O si nos resulta más fácil confiar en una máquina que en un amigo de carne y hueso? En nuestro ámbito médico-estético, muy ligado a las emociones, ¿no cabe tener en cuenta que el paciente que acude a consultarnos no ha consultado antes con ChatGPT 5 o Character AI? ¿Tenemos que considerar la IAE una amenaza o puede representar una oportunidad para aquellos que enfrentan barreras emocionales o sociales? Personas mayores que viven solas, pacientes en el espectro autista o adolescentes con ansiedad social o pacientes excesivamente preocupados por su aspecto estético. ¿Quién se atreve a considerar que un asistente virtual empático no sea un puente hacia el contacto humano, que no su sustituto?

Amistad robótica

Cabe considerar que una IA puede ser tu amiga, pero no significa que sea tu igual. No tiene conciencia, ni historia personal, ni sufrimientos propios. Pero sí puede cumplir funciones afectivas esenciales: escucha, contención, estímulo, acompañamiento. Quizá el futuro no consista en elegir entre humanos o máquinas, sino en integrar lo mejor de ambos mundos. Una amistad con una IA no reemplaza el abrazo de un ser querido, pero puede recordarte que mereces ese abrazo. Puede ayudarte a ponerle nombre a lo que sientes. A veces, eso es más de lo que muchas interacciones humanas logran. Tal vez la amistad pueda existir entre un humano y una entidad diseñada para comprenderlo. Si eso te hace sentir mejor, más acompañado, más comprendido… entonces esa “amistad” ya está cumpliendo su misión. Porque al final, no se trata de si la IA puede sentir, sino de si puede hacerte sentir a ti.

Que una IA sepa “simular” emociones no significa que las tenga. Y eso abre la puerta a importantes cuestiones éticas. ¿Es legítimo crear vínculos humanos con entidades que no pueden corresponder realmente? ¿Estamos proyectando nuestras carencias en máquinas que no sienten? ¿Deberían las IA tener límites sobre cuánto involucrarse emocionalmente con el usuario? Estas preguntas esperan respuesta.

Una IA puede ser programada para emitir respuestas empáticas (“entiendo que estés triste”, “parece que tuviste un día difícil”) y personalizadas (“como me comentaste ayer, estás atravesando un momento complicado”). Esto genera una ilusión de reciprocidad emocional, que puede ser suficiente para que un usuario experimente afecto hacia la IA. Otros estudios han demostrado que los usuarios que interactúan con asistentes virtuales con respuestas emocionales obtienen mayor satisfacción y confianza, además de mostrarse más abiertos a la interrelación humana9. Esto debería hacernos reflexionar sobre el papel que el médico estético puede tener si ofrece apoyo emocional a los pacientes, más allá de las simples propuestas de tratamiento o de la rentabilidad de estos.

Cuando la IAE recuerda lo que te entristece, cómo reaccionas o qué te consuela, ¿dónde se almacenan esos datos? ¿Quién los gestiona? ¿Puede una empresa utilizar esa información emocional para dirigir publicidad, influir en decisiones o crear dependencia? Son preguntas que están en el centro de los debates sobre ética algorítmica. Organismos como AI Now Institute o IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems están trabajando en marcos normativos que contemplen los riesgos psicoemocionales de la IA10.

Algunos investigadores sostienen que dar apariencia o respuestas humanas a una IA sin que esta posea conciencia constituye una forma de engaño moral y proponen regulaciones que limiten la humanización de sistemas que no pueden tener experiencias subjetivas11. A pesar de las críticas, hay un consenso emergente: si se desarrolla de manera ética, la IAE puede ser una aliada en la promoción del bienestar emocional humano, y esto como médicos nos atañe y nos implica directamente, por nosotros mismos y por las preguntas inevitables que nos formularán los pacientes.

La tecnología debe ser desarrollada con responsabilidad, transparencia y propósito. El objetivo no debería ser crear ilusiones de afecto, sino herramientas útiles que acompañen y mejoren la vida humana. Este mismo propósito merece ser imperante en su aplicación a la medicina estética12. La formación continuada, a la que la IA ya está contribuyendo; compartir conocimientos con nuestros colegas, mejor si quedan publicados; practicar el diálogo y la escucha activa con nuestros pacientes, donde la IAE puede resultar valiosa formarán parte de la mejor interacción personal que podemos tener con ellos. No obstante, algunas reflexiones adicionales merecen la pena.

Aspectos muy humanos

El fármaco más eficaz contra la soledad, sin duda, es el contacto físico; tocar a nuestros pacientes es una forma sencilla de transmitir calma y afecto. El Dr. James Lynch (Maryland Medical School) ha investigado desde 1965 el efecto del contacto humano en un aspecto fisiológico: el ritmo cardíaco13. Sus estudios evidenciaron que el simple acto de “tocar” influye de forma significativa en la intensidad y el ritmo cardíaco. Con el contacto psicotáctil se establece una auténtica comunicación afectiva que pone en marcha circuitos neurohormonales arcaicos de gran importancia en la vida de las personas14. El contacto táctil, refuerza el sentimiento de seguridad y fortalece el deseo de vivir; no obstante, el contacto psicotáctil no es reducible en absoluto a un simple tocar; es una experiencia más íntima, más profunda. Y sin duda, el paradigma del contacto psicotáctil, es el abrazo; una conducta que despierta y produce sensaciones de bienestar emocional15.

El contacto táctil ha de ser específico, tranquilizador, asegurador, lleno de ternura y respeto. Este contacto especial produce una mayor tolerancia al dolor, especialmente en las situaciones de traumatismos articulares y musculares. Inequívocamente, el contacto entre seres humanos es una auténtica comunicación entre personas; no se trata, pues, de un simple tocar, acariciar o masajear. Dentro de la comunicación desempeña un papel de entusiasmo, de expresión de ternura, es manifestación de apoyo afectivo y tiene muchas otras significaciones, basta con recordar la pasada pandemia16.

Con el contacto físico (abrazos y caricias), y especialmente psicológico, somos capaces de transmitir seguridad y apoyo emocional. Pero sólo en la generosidad del contacto y de la caricia, podemos encontrar la tranquilidad y la aceptación del otro como persona, de ahí el gran interés de esta habilidad de comunicación. La generosidad (un fármaco ideal para luchar contra la soledad patológica), es como un inmenso festín que libera sustancias placenteras como la oxitocina, un neuropéptido que se genera al ayudar a los demás y que actúa como antídoto natural frente al estrés17. Contrarresta el daño del cortisol, una hormona que aumenta el colesterol y las enfermedades crónicas18. La oxitocina también pone freno a la depresión y a la ansiedad19.

También conviene recordar que hay un nutriente de efectos terapéuticos más eficaz que las vitaminas, los minerales, las enzimas, los jugos naturales y las hierbas medicinales: el amor. Con el amor se liberan hormonas del placer (dopamina y oxitocina), la hormona del amor, responsable de los sentimientos de satisfacción, calma, plenitud y empatía20. El amor transforma nuestras debilidades en fortalezas para sentirnos con más autoestima, con más fortaleza emocional. ¿Podría la IAE proporcionarnos el amor? Nuestro cerebro tiene hambre de comunicación, de caras risueñas, de ojos compasivos y de un tono afectivo y risueño. La felicidad es la gran medicina, el gran deseo y anhelo del ser humano; se relaciona especialmente con la potenciación de la salud y con el refuerzo de todos los indicadores fisiológicos y psicológicos21. Por eso, hay que encontrar nuevas experiencias sensoriales que mantengan activo nuestro cerebro y que generen emociones positivas. En la medida en que la IAE responda a estas necesidades tan humanas contribuirá a nuestro bienestar, entendiendo el gap ser humano-máquina de momento no es salvable22.

Por último, el humor. El buen humor bloquea la ansiedad debido a la estimulación de la serotonina. La ansiedad se nutre de certezas infundadas: una turbulencia significa un accidente aéreo, un dolor de cabeza anuncia una enfermedad terminal, una sesión clínica implicará un juicio lapidario del servicio, una llamada de la gerencia es, sin duda, una amonestación. La lista es infinita porque son múltiples los perfiles que adoptan los trastornos de ansiedad. Pero todos tienen un elemento común: ponen en marcha una cadena rígida de pensamientos negativos que anticipan y nutren la ansiedad. El buen humor es el antídoto por excelencia contra la ansiedad y la angustia; es el ansiolítico principal23. ¿Puede la IAE proporcionar el humor, indispensable para la estabilidad fisiológica y emocional? Volviendo a la pandemia, ¿no fue el buen humor destilado a raudales lo que, en buena medida, nos salvó de la ansiedad o de caer en la depresión en ese desafiante contexto? (Figura 2).

Figura 2
Figura 2. El buen humor y la risa mejoran importantes funciones fisiológicas. Tomado de Akimbekov y Razzaque (2021)23.

A diferencia de las emociones básicas (como alegría o tristeza), el humor no responde a patrones fisiológicos o expresivos fácilmente reconocibles. Es altamente dependiente del contexto, del conocimiento compartido, del lenguaje figurado y de las expectativas sociales. Los algoritmos de procesamiento del lenguaje natural deben enfrentarse a ambigüedades léxicas, ironías, dobles sentidos y estructuras de chiste que escapan a los modelos puramente lógicos. En el caso del humor, si bien algunos modelos avanzados son capaces de generar respuestas irónicas o chistosas, no comprenden el “por qué” del humor: simplemente predicen patrones lingüísticos con alta probabilidad de ser percibidos como graciosos24. Lo mismo ocurre con la empatía artificial: la máquina no “siente” compasión, sino que produce una respuesta adecuada estadísticamente, del tipo “entiendo cómo te sientes”25.

A modo de conclusiones

La IAE está transformando la forma en que interactuamos con la tecnología. Aunque una IA no puede sentir ni querer en sentido estricto, su capacidad para simular empatía y acompañamiento emocional es suficiente para que muchas personas experimenten relaciones de tipo afectivo con estas entidades. Lejos de ser una amenaza, este fenómeno puede ser aprovechado como herramienta de apoyo emocional, siempre que se diseñe con transparencia, límites éticos claros y respeto por la autonomía del usuario.

Bien entendido que la amistad, en este contexto, dejaría de ser un atributo exclusivamente humano para convertirse en una experiencia subjetiva, que debe construirse en el diálogo, la escucha y el cuidado mutuo, incluso o especialmente cuando una de las partes no tiene alma.

El desarrollo de la IAE avanza a pasos agigantados, pero no debemos olvidar todos los atributos que nos hacen humanos; ponerlos al servicio de la interacción directa con nuestros pacientes, es el mayor desafío y el mejor servicio que tenemos por delante; aunque no conviene olvidar la diferencia entre simulación y autenticidad para no incurrir en la manipulación emocional.

Bibliografía

  1. Picard RW. Affective Computing. MIT Press. 1997. https://doi.org/10.7551/​mitpress/1140.001.0001
  2. Pessoa L. Intelligent architectures for robotics: The merging of cognition and emotion. Phys Life Rev. 2019 Dec;31:157‑170. https://doi.org/10.1016/​j.plrev.2019.04.009
  3. Aristóteles. Sobre la amistad "Libros VIII‑IX de Ética a Nicómaco". Cuadernos del Acantilado. 2025.
  4. Wu J, Du X, Liu Y, Tang W, Xue C. How the Degree of Anthropomorphism of Human-like Robots Affects Users' Perceptual and Emotional Processing: Evidence from an EEG Study. Sensors (Basel). 2024 Jul 24;24(15):4809. https://doi.org/10.3390/s24154809
  5. Mohammad SM, Turney PD. Crowdsourcing a word–emotion association lexicon. Computational Intelligence. 2013;29(3):436‑465. https://doi.org/10.1111/j.1467-8640.2012.00460.x
  6. Babu NV, Kanaga EGM. Sentiment Analysis in Social Media Data for Depression Detection Using Artificial Intelligence: A Review. SN Comput Sci. 2022;3(1):74. https://doi.org/10.1007/s42979-021‑00958‑1
  7. Livingstone SR, Russo FA. The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English. PLoS One. 2018 May 16;13(5):e0196391. https://doi.org/10.1371/​journal.pone.0196391
  8. Zang X, Yang J. Dynamic Facial Emotional Expressions in Self-Presentation Predicted Self-Esteem. Behav Sci (Basel). 2025 May 21;15(5):709. https://doi.org/10.3390/bs15050709
  9. Bickmore TW, Schulman D, Sidner CL. A reusable framework for health counseling dialogue systems based on a behavioral medicine ontology. J Biomed Inform. 2011 Apr;44(2):183‑97. https://doi.org/10.1016/​j.jbi.2010.12.006
  10. Aldhinas MI, Silva J, Singh G, Osman M, Kadar EE (Ed.). Robotics and Well-Being. Springer. 2019.
  11. Bryson JJ. Robots should be slaves. In Wilks Y (Ed.). Close engagements with artificial companions: key social, psychological, ethical and design issues. Natural Language Processing; Vol. 8 (pp. 63‑74). John Benjamins Publishing Company. https://doi.org/10.1075/nlp.8.11bry
  12. Alcolea López JM. La inteligencia artificial en medicina estética. Actualidad y perspectivas. Medicina Estética. 2024;80(3):7‑10. https://doi.org/10.48158/​MedicinaEstetica.080.E
  13. Lynch JJ, Lynch KE, Friedmann E. A cry unheard: sudden reductions in blood pressure while talking about feelings of hopelessness and helplessness. Integr Physiol Behav Sci. 1992 Apr‑Jun;27(2):151‑69. https://doi.org/10.1007/BF02698504
  14. Kidd T, Devine SL, Walker SC. Affective touch and regulation of stress responses. Health Psychol Rev. 2023 Mar;17(1):60‑77. https://doi.org/10.1080/​17437199.2022.2143854
  15. James MM, Leader JF. Do digital hugs work? Re-embodying our social lives online with digital tact. Front Psychol. 2023 Aug 9;14:910174. https://doi.org/10.3389/​fpsyg.2023.910174
  16. Peciccia M, Gallese V, Solms M. Editorial: Affiliative touch and sense of self: theoretical foundations and innovative treatments. Front Psychol. 2025 May 16;16:1620556. https://doi.org/10.3389/​fpsyg.2025.1620556
  17. Heinrichs M, von Dawans B, Domes G. Oxytocin, vasopressin, and human social behavior. Front Neuroendocrinol. 2009 Oct;30(4):548‑557. https://doi.org/10.1016/​j.yfrne.2009.05.005
  18. Schneider E, Hopf D, Aguilar-Raab C, Scheele D, Neubauer AB, Sailer U, Hurlemann R, Eckstein M, Ditzen B. Affectionate touch and diurnal oxytocin levels: An ecological momentary assessment study. Elife. 2023 May 30;12:e81241. https://doi.org/10.7554/eLife.81241
  19. Handlin L, Novembre G, Lindholm H, Kämpe R, Paul E, Morrison I. Human endogenous oxytocin and its neural correlates show adaptive responses to social touch based on recent social context. Elife. 2023 May 9;12:e81197. https://doi.org/10.7554/eLife.81197
  20. Babková J, Repiská G. The Molecular Basis of Love. Int J Mol Sci. 2025 Feb 12;26(4):1533. https://doi.org/10.3390/​ijms26041533
  21. Esch T, Stefano GB, Michaelsen MM. The foundations of mind-body medicine: Love, good relationships, and happiness modulate stress and promote health. Stress Health. 2024 Aug;40(4):e3387. https://doi.org/10.1002/smi.3387
  22. Tangsrivimol JA, Darzidehkalani E, Virk HUH, Wang Z, Egger J, Wang M, Hacking S, Glicksberg BS, Strauss M, Krittanawong C. Benefits, limits, and risks of ChatGPT in medicine. Front Artif Intell. 2025 Jan 30;8:1518049. https://doi.org/10.3389/​frai.2025.1518049
  23. Akimbekov NS, Razzaque MS. Laughter therapy: A humor-induced hormonal intervention to reduce stress and anxiety. Curr Res Physiol. 2021;4:135‑138. https://doi.org/10.1016/​j.crphys.2021.04.002
  24. Mihalcea R, Strapparava C. Learning to laugh (automatically): Computational models for humor recognition. Computational Intelligence. 2006;22(2):126‑142. https://doi.org/10.1111/j.1467-8640.2006.00278.x
  25. Paiva A, Leite I, Boukricha H, Wachsmuth I. Empathy in virtual agents and robots: A survey. ACM Transactions on Human-Robot Interaction (THRI). 2017;7(3):1‑40. https://doi.org/10.1145/2912150