„Megértem, hogy ez nehéz lehet számodra.” Egy ilyen mondat ma már nemcsak egy baráttól vagy egy pszichológustól hangozhat el, hanem egy chatbot válaszában is megjelenhet. Az utóbbi években a mesterséges intelligencia egyre több területen jelent meg a mindennapjainkban: ügyfélszolgálati chatbotok válaszolnak kérdéseinkre, digitális asszisztensek segítik a munkánkat, és egyre több alkalmazás próbál érzékenyen reagálni a felhasználók érzelmi állapotára is. De vajon tényleg megért minket a mesterséges intelligencia, vagy csak rendkívül hatásosan utánozza az empátiát?
Mit jelent az empátia – és mit tud ebből az AI?
Ahhoz, hogy ezt megértsük, érdemes először tisztázni, mit is jelent az empátia. A pszichológia két fő összetevőt különböztet meg. A kognitív empátia annak képessége, hogy felismerjük és értelmezzük mások érzelmi állapotát: megértjük, mit érez a másik ember és miért. Az affektív empátia ennél tovább megy: ilyenkor nemcsak felismerjük az érzelmeket, hanem bizonyos mértékig magunk is átéljük azokat. Egy barát szomorúsága bennünk is szomorúságot kelt, míg egy örömteli hír minket is jobb kedvre derít. A mai mesterséges intelligenciák legfeljebb az empátia első szintjét képesek modellezni, miközben a valódi érzelmi átélés képessége továbbra is az ember sajátja.
Hogyan érti meg az AI az érzelmeket?
A mesterséges intelligencia empatikus működésének kulcsa az affektív számítástechnika, amely lehetővé teszi, hogy a rendszerek felismerjék és értelmezzék az érzelmi jeleket, majd ezekhez illeszkedő válaszokat adjanak. Amikor egy chatbot megnyugtató hangnemben reagál egy stresszes helyzetre, valójában tanult minták alapján választja ki a megfelelő stílust és tartalmat. A fejlesztők egyre tudatosabban építenek olyan rendszereket, amelyek nemcsak információt közölnek, hanem a felhasználó érzelmi állapotára is reagálnak. A kutatások pedig arra is rámutatnak, hogy az emberek hajlamosak társas lényként viszonyulni a gépekhez. Egy jól megtervezett algoritmussal való interakció során ugyanazok a pszichológiai mechanizmusok aktiválódnak, mint egy emberi kapcsolatban. Ebből következik, hogy az empatikusnak tűnő mesterséges intelligencia nem csupán technológiai, hanem pszichológiai jelenség is. Az empatikus válaszok mögött azonban nem valódi együttérzés, hanem algoritmusok által generált reakciók állnak, mégis az emberi észlelés szempontjából ez a különbség gyakran elmosódik.

AI mint önismereti eszköz
Ez a megállapítás azonban nem jelenti azt, hogy az AI ne lenne hasznos – sőt, az egyik legérdekesebb alkalmazási területe éppen az önfejlesztés. A modern nyelvi modellek – köztük a beszélgetésalapú rendszerek – egyre gyakrabban jelennek meg olyan eszközként, amely támogatja az önreflexiót és az érzelmi tudatosság fejlődését. Azáltal, hogy képesek az érzelmek azonosítására és nyelvi megfogalmazására, segíthetik a felhasználót abban, hogy pontosabban nevezze meg saját belső állapotait. Ez a folyamat már önmagában is fejleszti az érzelmi tudatosságot, hiszen arra ösztönöz, hogy explicitté tegyük belső élményeinket.
Az önreflexiót tovább erősíti, hogy a mesterséges intelligencia olyan strukturált kérdésekkel és visszajelzésekkel képes irányítani a gondolkodási folyamatot, amely segíthet azonosítani visszatérő negatív gondolatokat, túláltalánosításokat, hiedelmeket vagy torzításokat és alternatív megfogalmazásokat kínálhat. Ez nem helyettesíti a terápiát, de közel áll bizonyos kognitív viselkedésterápiás technikákhoz, amelyek célja a gondolkodás tudatosabbá tétele és átkeretezése. Ennek egyik formája például a digitális naplózás AI-támogatással, amely nemcsak rögzíti a gondolatokat, hanem visszajelzést is ad rájuk, így a felhasználó idővel mintázatokat fedezhet fel saját működésében.
Az érzelmi feldolgozás területén ezek a technológiák kiegészítő szerepet is betölthetnek akár egy terápiás folyamat során is. Bár a segítő szakemberek komplex érzelmi helyzetekben továbbra is nélkülözhetetlenek, bizonyos kontextusokban a mesterséges intelligencia is képes lehet támogatást nyújtani. Több kutatásban bizonyították, hogy az ilyen rendszerekkel való interakció javíthatja a felhasználók érzelmi állapotát, egyrészt azért, mert a folyamatos visszajelzés és az ítélkezésmentes kommunikáció biztonságos teret teremt a gondolatok kifejezésére. Emellett pedig a gép, mint beszélgetőpartner, sajátos módon járul hozzá az érzelmi feldolgozáshoz: jelenléte állandó és azonnal elérhető, reakciói gyorsak, és nem terhelik társas elvárásokkal a felhasználót.

Kommunikáció és konfliktuskezelés
A mesterséges intelligencia szerepe azonban nem merül ki az önismereti folyamatok támogatásában, hanem a kommunikáció fejlesztésében is szerepet játszhat. Segíthet például megfogalmazni egy nehéz üzenetet, átgondolni egy konfliktushelyzetet, vagy többféle nézőpontból megvizsgálni egy problémát. Ez különösen hasznos lehet akkor, amikor valaki bizonytalan abban, hogyan fejezze ki magát, vagy szeretné elkerülni a félreértéseket. Az AI képes átfogalmazni mondatokat empatikusabb, konstruktívabb módon, ami hozzájárulhat a tudatosabb és hatékonyabb kommunikációhoz. Bizonyos helyzetekben pedig mediátorként is működhet: összeveti az eltérő álláspontokat, kiemeli a közös pontokat, és javaslatokat tesz a konszenzus irányába.
AI a mentális egészség területén
Mindezek az alkalmazási lehetőségek azonban különösen érzékeny kérdéssé válnak, amikor a mesterséges intelligencia a mentális egészség és a terápiás gyakorlat területére lép. Az AI integrációja ezen a területen nemcsak technológiai, hanem komoly etikai és szakmai dilemmákat is felvet. Az egyik legfontosabb kérdés az adatvédelem és a bizalmas információk kezelése. Az egészségügyi alkalmazások gyakran rendkívül érzékeny személyes adatokat dolgoznak fel, ami felveti annak problémáját, hogy ezek az információk milyen módon kerülnek tárolásra és felhasználásra. Ugyanakkor a komplex algoritmusok működése gyakran átláthatatlan, így nem biztos, hogy a felhasználók pontosan értik, milyen rendszerrel lépnek interakcióba, és milyen következményekkel járhat az adataik megosztása.
A terápiás kapcsolat szempontjából szintén lényeges különbség figyelhető meg: a pszichoterápia egyik alapköve a terapeuta és a kliens közötti bizalmi kapcsolat, amely a kölcsönös megértés és az érzelmi jelenlét finom dinamikájára épül. A mesterséges intelligencia ezzel szemben nem képes valódi kapcsolódást kialakítani, ami hosszabb távon gyengítheti a terápiás folyamat hatékonyságát. Bár egyes felhasználók kötődést alakíthatnak ki az ilyen rendszerekhez, ez a kötődés egyoldalú, és fennáll a veszélye annak, hogy elkezdi átvenni a valódi emberi kapcsolatok helyét.

Kockázatok és dilemmák
További problémát jelent az érzelmek félreértelmezése. Még a legfejlettebb rendszerek is hibázhatnak az érzelmi jelek azonosításában, ami nem megfelelő vagy akár káros válaszokhoz vezethet. Ez különösen kritikus lehet sérülékeny helyzetekben, ahol egy pontatlan reakció nemhogy nem segít, hanem fokozhatja a felhasználó negatív állapotát. Ezzel összefüggésben felmerül az a veszély is, hogy a terápiás ellátás egyre inkább algoritmikuslogikára épül, ami hosszabb távon a mentális egészségügy elszemélytelenedéséhez vagy elidegenedéséhez vezethet, háttérbe szorítva az emberi kapcsolatok jelentőségét a segítő folyamatokban.
Mindezek fényében a mesterséges intelligencia empatikus képességeit érdemes eszközként, nem pedig helyettesítőként értelmezni. Képes támogatni az önreflexiót, segíthet az érzelmek megfogalmazásában és strukturálásában, valamint hozzájárulhat a tudatosabb kommunikációhoz és konfliktuskezeléshez. Fontos ugyanakkor, hogy az ilyen eszközöket kiegészítő támogatásként használjuk, és ne helyettesítsük velük az emberi segítséget, hiszen a mesterséges intelligencia nem rendelkezik azokkal a mélyebb emberi tulajdonságokkal, amelyek az empátiát valódi kapcsolattá teszik. Az algoritmus tehát nem empatikus a szó szoros értelmében, de képes olyan interakciókat létrehozni, amelyek az empátia élményét keltik – és ez a kettősség határozza meg, hogyan érdemes viszonyulnunk hozzá a mindennapokban.
Irodalomjegyzék
Alfraih, S. S. (2025). The Ethics of AI in Mental Health: A Psychological Examination of Digital Therapeutic Interventions. Studies in Systems, Decision and Control. 587. 2899–2910. https://doi.org/10.1007/978-3-031-87584-7_212
Brailas, A., & Tsolakis, L. (2025). Questions People Ask ChatGPT Regarding Their Romantic Relationships and What They Think About the Provided Answers: An Exploratory Study. LNCS. 15545. 150–158. https://doi.org/10.1007/978-3-031-88045-2_10
Carneiro, L., & Gomes, A. (2025). Applications of artificial intelligence use in therapeutic interventions: A multidisciplinary approach. AI in Mental Health: Innovations, Challenges, and Collaborative Pathways. 167–211. https://doi.org/10.4018/979-8-3373-5072-1.ch008
Gadiraju, R., Kavadikijanekunte, A., & Karnala, T. K. (2025). The Moral Algorithm Ethics in Al-Supported Mental Health. Wearable AI in Psychotherapy. 183–212. https://doi.org/10.4018/979-8-3373-0467-0.ch007
Giotakos, O. (2025). Artificial intelligence-based psychotherapy: Focusing on common psychotherapeutic factors. Frontiers in Psychiatry. 16. https://doi.org/10.3389/fpsyt.2025.1710715
Gold, N. S. S., & Kanna, S. Y. (2026). ARTIFICIAL INTELLIGENCE: A Replacement or a Complement to Psychotherapy in Neurocognitive Rehabilitation? The Routledge International Handbook of Neurocognitive Rehabilitation: Practices, Innovations, and Future Directions. 103–118. https://doi.org/10.4324/9781003646662-8
Howcroft, A., & Blake, H. (2025). Empathy by Design: Reframing the Empathy Gap Between AI and Humans in Mental Health Chatbots. Information (Switzerland). 16(12). https://doi.org/10.3390/info16121074
Mandal, S., & Hawamdeh, M. M. K. (2025). Digital well-being and AI: Navigating the intersection between technology and mental health. Digital Citizenship and the Future of AI Engagement, Ethics, and Privacy. 111–132. https://doi.org/10.4018/979-8-3693-9015-3.ch004
Perlis, R. H. (2026). Artificial Intelligence and the Potential Transformation of Mental Health. JAMA Psychiatry. 83(4). https://doi.org/10.1001/jamapsychiatry.2025.4116
Rao, T. V. N., Deepika, J. V. P. U., Uppala, V., & Swetha, C. (2025). The Rise of Artificial Empathy: How Machines Are Reshaping Human Conversation. Advancements in Speech Processing for Human-Computer Interaction. 25–53. https://doi.org/10.4018/979-8-3373-3048-8.ch002
Raygoza-L., M. E., Orduño-Osuna, J. H., Jimenez-Sanchez, R., & Murrieta-Rico, F. N. (2025). Innovative Artificial Intelligence approaches for identifying and managing DSM Cluster B personality disorders in mental health: A case study on the dark triad. Exploring Psychology, Social Innovation and Advanced Applications of Machine Learning. 1–20. https://doi.org/10.4018/979-8-3693-6910-4.ch001
Ruan, Q.-N., Hu, S.-Q., ShangGuan, Z.-H., & Zhou, S.-M. (2026). The augmented clinician as a framework for human-AI collaboration in mental healthcare. Frontiers in Psychiatry. 17. https://doi.org/10.3389/fpsyt.2026.1729175
Segal, M. (2025). Confronting and managing ethical dilemmas in social work using ChatGPT. European Journal of Social Work. 28(1). 155–167. https://doi.org/10.1080/13691457.2024.2377786
Segal, M. (2026). Social workers’ evaluation of ChatGPT for solving ethical dilemmas within the limits of confidentiality. Journal of Social Work Practice. 40(1). 5–18. https://doi.org/10.1080/02650533.2025.2480092
Suresh, R. V., Balamurugan, S., Karthick, R., & Senthilkumar, S. (2025). Artificial Intelligence with Emotional Intelligence via Hume AI Techniques. 1363–1368. https://doi.org/10.1109/ICSCDS65426.2025.11166916
Teixeira, R. (2026). Emotional AI Applied to Mental Health: An Ethical and Philosophical Analysis. LNCS. 16108. 421–430. https://doi.org/10.1007/978-3-032-04999-5_25
Varma, A., Saraiya, A. S., Maheshwari, E., Tuli, K., Srivastava, S., & Suresh, S. (2026). Advancements in Psychotherapy and Treatment: The Use of AI Interventions for Psychopathologies. AI-Driven Insights Into the Depths of Psychopathologies. 211–260. https://doi.org/10.4018/979-8-3373-1325-2.ch007
Villacís-Guerrero, J. D. P., Chancusig-Espín, W., Hurtado-Caina, J. S., & Chiza, J. C. (2026). Risks and Ethical Challenges of Emotional Intelligence in Conversational Agents. 149–161. https://doi.org/10.1007/978-3-032-10310-9_10
Weng, Z., Huang, Y., & Weng, S. (2026). From Code to Care: How Artificial Empathy Enhances Customer Experience in Human-Robot Interaction. Journal of Business Research. 206. https://doi.org/10.1016/j.jbusres.2026.115969
Yankouskaya, A., Liebherr, M., & Ali, R. (2025). Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models. Human-Centric Intelligent Systems. 5(1). 77–89. https://doi.org/10.1007/s44230-025-00090-w
Zhang, Y., Fang, J., Luo, X., Lindsay, D., Madre, N., Paredes, J., Penna, A., Melley, E., & Garcia, T. (2025). Exploring the efficacy of ChatGPT in understanding and identifying intimate partner violence. Family Relations. 74(3). 1233–1249. https://doi.org/10.1111/fare.13176

Leave a Reply