Mediatizáció és társadalom: igazság, bizalom, technológia
Mediatizáció és társadalom: igazság, bizalom, technológia (Mediatization and Society: Truth, Trust, Technology) címmel rendezett kétnapos nemzetközi konferenciát a Nemzeti Közszolgálati Egyetem Tudomány és Társadalom Kutatócsoportja, valamint a European Communication Research and Education Association (ECREA) Mediatizáció Szekciója október 9-én és 10-én, az NKE John Lukacs Társalgójában.
A konferenciát Falyuna Nóra, a Tudomány és Társadalom Kutatócsoport vezetője, nyitotta meg, aki üdvözölte a résztvevőket, majd Bartóki-Gönczy Balázs, a Nemzeti Közszolgálati Egyetem Államtudományi és Nemzetközi Tanulmányok Karának tudományos dékánhelyettese köszöntőjében a Tudomány és Társadalom Kutatócsoport tevékenységét méltatta, kiemelve, hogy ez a csoport negyedik rendezvénye, amely nemzetközi résztvevőkkel vizsgálja az MI kulturális és demokratikus hatásait. Hangsúlyozta, hogy a félretájékoztatás korszakában, ahol a bizalom és az igazság megkérdőjeleződik, a konferencia témája – a közbeszédet aláásó összeesküvés-elméletek és a társadalmi polarizáció – kiemelten fontos. A rendezvény alkalmat adott Fehér Katalin Társadalom és Technológia című, a Taylor & Francis kiadó gondozásában megjelent könyvének magyarországi bemutatására, amely a generatív MI társadalmi hatásait elemzi.
Fehér Katalin, az ECREA Mediatizáció Szekció társelnöke és a Nemzeti Közszolgálati Egyetem docense a szervezők munkáját méltatta. Köszönetet mondott az esemény operatív megszervezéséért, valamint a konferencia szakmai tartalmának és inkluzív jellegének kialakításáért. Fehér Katalin kiemelte a Q2-es besorolású a COMEP folyóirat szerepét, amely 2026-ban különszámot jelentet meg a szimpózium témáiról.
Ezt követően Simone Natale, a Torinói Egyetem docense Mesterséges intelligencia és a megtévesztés automatizálása című nyítóelőadásban a generatív mesterséges intelligencia (MI) térnyerésének hatásait vizsgálta a kommunikációs folyamatok automatizálására a csalás fogalmának átalakulását vizsgálta az MI és a digitális média korában, különös tekintettel a Replika nevű MI-alapú társalkalmazásra. A Replika, amely nagy nyelvi modelleken alapul, hasonlóan a ChatGPT-hez, nem pusztán technológiai eszköz, hanem olyan platform, amelynek célja a társadalmi interakció és sokszor erotikus beszélgetések elősegítése. A felhasználók letöltik az alkalmazást, létrehoznak egy avatárt, meghatározzák annak nevét, nemét és jellemzőit, majd társalgásba kezdenek vele. A digitális média és MI elismert kutatója szerint ez az alkalmazás jól példázza azt az ellentmondásos dinamikát, amely az MI és a felhasználók közötti kapcsolatot jellemzi: bár a felhasználók tudják, hogy egy érzelem- és empátiamentes szoftverrel kommunikálnak, mégis mély, érzelmileg jelentős kapcsolatot alakítanak ki vele. Ez a jelenség nem egyszerű hiszékenység, hanem egy köztes állapot, ahol a tudatosság és az érzelmi bevonódás egyszerre van jelen, újragondolásra késztetve a csalás hagyományos fogalmát.
Simone Natale a csalást kommunikációs jelenségként definiálta, amely jelek és reprezentációk használatával hamis benyomást kelt, de többcsatornás és sokrétű, a technológia fejlődésével folyamatosan változik. Az MI kezdetei óta szoros kapcsolatban áll a csalással, amit jól mutat Alan Turing 1950-ben készült tesztje. Turing nem azt kérdezte, hogy a gépek képesek-e gondolkodni, hanem egy játékot javasolt: egy kérdező anélkül beszélget valakivel vagy valamivel, hogy látná, és el kell döntenie, emberrel vagy géppel kommunikál-e. Ha a gép meggyőzi a kérdezőt, hogy ember, átmegy a teszten, ami lényegében a csalás sikerét jelenti. Simone Natale hangsúlyozta, hogy a Turing-teszt történetében a programozók gyakran manipulatív stratégiákat alkalmaztak, például sértő válaszokkal terelték el a figyelmet a gép korlátairól, hogy emberibbnek tűnjön.
Az előadó három kulcsfontosságú szempontot emelt ki, amelyek miatt újra kell gondolni a csalást az MI korában. Először is, a csalás nem ellentéte a normális észlelésnek, hanem annak szerves része. Példaként említette, hogy egy erdőben sétálva egy furcsa alakú fát állatnak láthatunk, ami evolúciós mechanizmus a túlélés érdekében. A közösségimédia-platformok algoritmusai arra késztetik a felhasználókat, hogy alábecsüljék, miként használják fel adataikat. Az MI esetében a felhasználók tisztában vannak azzal, hogy például a ChatGPT szoftver, mégis szociális kereteket vetítenek rá, amit az olyan tervezési döntések erősítenek, mint az „én” névmás használata vagy az érzelmi tónus, amely bizalmat épít. Simone Natale megkülönböztette az erős csalást, amikor egy gépet embernek hisznek, a banális csalástól, amelyben a felhasználók tudatosan szociális jelentéseket társítanak a géppel való interakcióhoz.
Másodszor, az MI automatizálja a csalást az emberi tudás gyűjtése és beépítése révén. A modern média történetében, például a mozi esetében, az emberi érzékelés ismerete – mint hogy gyors képek mozgás illúzióját keltik – tette lehetővé a technológia fejlesztését. Ma a deep learning hatalmas adatmennyiséget elemez, például emberi chatszövegeket, hogy imitálja a közösségi jelleget vagy kreativitást. A Replika például emberi beszélgetésekből tanulja a „múlt” mesélését, hogy hitelesebbnek tűnjön. Végül, Simone Natale az ügynökség kérdését vizsgálta, amely túlmutat a szándékosságon. A csalás nem csak a hamis információ (szándékos) és a téves információ (nem szándékos) közötti különbségről szól, hanem egy háromszög eredménye, amelyben a csaló, az algoritmus és a becsapott egyaránt aktív szerepet játszik. Az algoritmusok szándék nélkül is ügynökséggel bírnak, például a nagy nyelvi modellek gyakran „hallucinálnak”, vagyis hamis információkat gyártanak, mert nyelvhez, nem pedig a valósághoz kötődnek.
Simone Natale azt a következtetést vonta le, hogy mivel a digitális platformok és az MI normalizálják a csalást, a lényeg nem az, hogy megértsük, hogy van-e csalás jelen, hanem az, hogy mik az eredmények, és milyen lehet a különböző megtévesztő formák potenciális hatása. A kommunikáció automatizálása magában foglalja a megtévesztés automatizálását is. Szükség van arra, hogy túllépjünk a szándékosság szűk fókuszán.
Az előadást egy panelbeszélgetés követte, amelyet Tomasz Gackowski, az ECREA Mediatizáció társelnöke és a Varsói Egyetem professzora moderált, és amelyen Fehér Katalin Társadalom és Technológia című könyvének bemutatója is helyet kapott. A panel résztvevői Simone Natale, Bieke Zaman, a KU Leuven professzora, Demeter Márton, az NKE egyetemi docense és Fehér Katalin voltak. Tomasz Gackowski Simone Natale-hoz intézett kérdéssel indította beszélgetést, hogyan különbözik az MI által gyorsított csalás a hagyományos álhírektől, és hogyan befolyásolja az információterjesztés léptékét? Simone Natale hangsúlyozta, hogy a szándékosság helyett az ügynökségre kell fókuszálni, mivel a szoftverek dinamikái gyakran nem köthetők egyértelmű szándékhoz. Az MI átláthatósága – különösen a nagy nyelvi modellek esetében, amelyek működése még a fejlesztők számára is részben átláthatatlan – tovább bonyolítja a helyzetet. Simone Natale szerint a modelleket természeti jelenségként tanulmányozzák, ami új megközelítést igényel.
Fehér Katalin könyvére térve a szakemberek a generatív MI evolúciós ugrásként való értelmezését vitatták meg. Fehér Katalin szerint az MI által létrehozott szintetikus tartalmak – például szövegek, képek vagy videók – új minőséget hoznak, amely a humán és gépi, úgynevezett együttműködő intelligencia eredménye. Hivatkozott Ethan Mollick professzorra, a Pennsylvaniai Egyetem Wharton School of Business intézetének docensére, aki szerint a generatív MI együttműködő intelligenciaként funkcionál, ám a szintetikus tartalmak arányának növekedése (várhatóan 2030-ra meghaladja az autentikus tartalmakat) kihívásokat vet fel az eredetiség és az igazság ellenőrzésében. Fehér Katalin szerint a társadalomtudományoknak nagyobb szerepet kell vállalniuk az MI hatásainak vizsgálatában, mivel a kutatások 80-85 százalék a jelenleg műszaki területről származik.
Bieke Zaman a generatív MI társadalmi hatásairól beszélt, kiemelve, hogy az MI-t gyakran hatékonyságnövelő eszközként népszerűsítik, ám kritikátlan használata lustasághoz és a kognitív készségek gyengüléséhez vezethet. Példaként említette, hogy a diákok rövid távon motiváltabbak lehetnek az MI használatától, de hosszú távon a komplex problémák megoldásához szükséges készségek elsorvadhatnak. Zaman a szabályozás szükségességét hangsúlyozta, megjegyezve, hogy Európában erősebb a szabályozási szándék, de a technológiai iparban való lemaradás hatalmi feszültségeket szül. A „négyszeres hélix” modellt javasolta, amelyben tudósok, döntéshozók, iparági szereplők és civilek együtt alakítják a szabályozást.
Demeter Márton a tudományos kutatás és az MI kapcsolatát vizsgálta, kiemelve, hogy az MI-t jelenleg eszközként kezelik, nem társszerzőként, bár sok kutató valójában ko-intelligenciaként használja. A tudományos írás szerkezete – különösen az angolszász akadémiában –, már most is automatizált, ami megkérdőjelezi a kreativitás szerepét. Demeter szerint az MI nem végezhet empirikus kutatást, például interjúkat vagy felméréseket, így a humán ügynökség továbbra is kulcsfontosságú. Az etikai kérdések és a felelősség azonban még megoldatlanok, különösen a hitelesség és az eredetiség terén.
A beszélgetésen felmerült a bizalom eróziójának problémája is, amely minden területet érint: politikát, médiát, tudományt és a mindennapi kommunikációt. A szakértők egyetértettek abban, hogy az MI által generált tartalmak elmossák a szakmai határokat, például az újságírók és influenszerek, vagy a szakértők és az automatizált összefoglalók között. A résztvevők hangsúlyozták a kritikus gondolkodás és az alapvető készségek fontosságát, valamint a társadalomtudományok szerepét az MI által támasztott kihívások megértésében és kezelésében.
A két nap során az érdeklődők megismerhették az AI szerepét a hírszobákban, az automatizáció hatását a fotós ügynökségekre, az algoritmikus affektus korában az igazság megalkotását, valamint az AI által formált válságkezelési eszközöket és gyakorlatokat. Szó esett a generatív AI demokrácia-konstrukciójáról, a digitális kori politikai kommunikációról, a háborús dezinformáció vizuális és szöveges formáiról, valamint a konfliktusmegelőzés kommunikációs stratégiáiról. Továbbá a résztvevők hallhattak a generatív AI tudományos alkalmazásairól, a digitális inklúzióról az oktatásban, az algoritmikus mediáció ontológiájáról, az AI újságírói munkára gyakorolt hatásáról, valamint a tudományos kommunikáció és közbizalom mediatizált társadalomban betöltött szerepéről, a tudományos bizonytalanságok kommunikációjáról, az ADHD-influencerek tapasztalati szakértelméről, az egészségügyi szakértelmek mediatizált konstruálásáról, valamint az egészségügyi narratívák határokon átnyúló vizsgálatáról esett szó, kiegészítve poszterbemutatókkal a rövid hírvideók minőségéről, valamint a nem nyugati identitások AI-ábrázolásáról és az algoritmikus igazság geopolitikai hatásairól.
Szöveg: Sallai Zsófia
Fotó: Szilágyi Dénes