Slabé wi-fi, klamlivé odpovede, absencia pravidiel

Umelá inteligencia v prostredí sociálnej práce s migrujúcimi osobami

Čo sa stane, keď ľudia, ktorí majú pomáhať tým najzraniteľnejším, sami uviaznu v tekutých pieskoch technologickej revolúcie? V strednej Európe sa sociálne pracovníčky a pracovníci pracujúci s migrantmi – tí, ktorí denne prekonávajú jazykové bariéry a pracujú s traumou – ocitli na prahu novej éry: generatívnej umelej inteligencie. Mnohí v nej najprv videli zázračný nástroj na preklady a redukciu prebujnenej administratívnej záťaže. Teraz sa však vynára spleť etických otázok, technických prekážok a hlbších úvah o tom, kto rozhoduje a kto nesie následky. Od nekvalitného internetového pripojenia v centrách pomoci utečencom až po obavy z mentálneho „zakrnenia“, od chýbajúcich organizačných pravidiel až po hrozbu korporátnej dominancie – ich príbeh nie je len o technológii, ale aj o dôvere, moci a krehkom ľudskom spojení, ktoré tvorí jadro sociálnej práce. Tento text skúma, prečo je sľub umelej inteligencie pre migračnú prax v Česku a na Slovensku zároveň lákavý aj znepokojivý – a čo ich skúsenosť naznačuje pre regióny, ktoré tento vývoj ešte len čaká.

Wi‑fi v čakárni

V stiesnenej kancelárii nad električkovou traťou sa sociálna pracovníčka nakláňa k spomalenému počítaču a sleduje blikajúci kurzor chatbotu ako indikátor životných funkcií. Hneď vedľa sedí matka z Charkova so synom, ktorý sa učí češtinu cez krátke videá. Plán je jasný: rýchly preklad odvolania vo veci dávok, upraviť jazyk, zhodiť z neho byrokratický nános a odoslať. Plán padne v momente, keď skolabuje wi‑fi.

Zdanlivá maličkosť, ktorá však o mnohom vypovedá. Pre sociálnych pracovníkov v Česku a na Slovensku – dvoch krajinách, ktoré v prepočte na obyvateľa prijali jedny z najväčších počtov ukrajinských utečencov – symbolizovala generatívna AI prísľub plynulosti: zrýchlenie papierovačiek, prehľadnejšie listy, prístupnejšie inštitúcie. Každodennosť je však oveľa komplikovanejšia. To, čo začalo ako praktická pomôcka pre pár „technologických nadšencov“, sa mení na konfrontáciu s limitmi infraštruktúry, znalostí a etiky. Technológia sedí vedľa pracovníka ako brilantný, no roztržitý stážista: očarí, občas sa pomýli, je vždy poruke – a nikdy nenesie zodpovednosť.

Technický základ

Na samotnom úvode stojí prekážka, ktorá nepôsobí zásadne, no rozhoduje o mnohom: technické zázemie. Vo väčšine organizácií sociálnych služieb sú rozpočty napnuté, počítače zastarané, sieťová infraštruktúra mizerná. Chatbot nedokáže oživiť mŕtvu zónu signálu. Sociálne pracovníčky opisujú miestnosti, kde padá internet, počítače zamŕzajú, a pracovníci si kladú každodennú otázku: „Má vôbec zmysel to skúšať?“. Platené verzie AI – so širším využitím a menšími reštrikciami – sú mimo dosah mnohých organizácií, takže mizerne platené pracovníčky sú neraz nútené si prístup platiť z vlastného. To rozmazáva hranicu medzi pracovnými povinnosťami a ochranou dát.

Tento drobný boj je však odrazom väčšej nerovnosti: výhody AI smerujú k tým, ktorí majú dobrý hardvér a peniaze. A keď má k nástroju slabší prístup sociálna pracovníčka, ešte horší ho majú užívatelia jej služieb – ľudia so starým telefónom či slabým dátovým balíkom. Wi‑fi v čakárni sa tak mení na metaforu širších nerovností.

Nedostatok zdrojov nie je náhoda. Po škrtoch v amerických programoch zahraničnej pomoci počas druhej Trumpovej éry sa mnohé organizácie sociálnej práce v strednej Európe ocitli s výrazne okresanými rozpočtami a boli nútené bojovať o každý jeden eurocent spolu s rastúcimi počtami užívateľov ich služieb. Hoci sa Európska únia aspoň oficiálne usilovala dieru zaceliť, žiadna séria prísľubov nemohla vykompenzovať pôvodný výpadok. A Británia si zvolila vlastnú choreografiu: nasledovala americký trend vlastnou úspornou piruetou, osekaním pomoci a utiahnutím opasku, čím ešte viac prehĺbila globálne znižovanie podpory.

Túto krehkosť navyše znásobuje politická nestálosť: za vlád Roberta Fica na Slovensku a Andreja Babiša v Česku sa domáce zdroje financovania stali nepredvídateľnými a atmosféra pre progresívnu sociálnu politiku sa zdá byť permanentne dočasná, bez pevnej pôdy pod nohami.

Vedomosti a nevedomosti

Druhá bariéra je epistemická. Aj pracovníci, ktorí sledujú technologické novinky alebo kedysi študovali IT, opisujú známy pocit závratu: nikto – a už vôbec nie samotní tvorcovia – nedokáže presne povedať, ako model dospeje ku konkrétnej odpovedi. Možno kontrolovať správanie, nie podstatu. Výsledkom je prenikavá pochybnosť, ktorá spolunažíva s každodenným používaním. Ten istý pracovník, ktorý sa spolieha na AI pri písaní listu, môže byť zároveň ten, kto spochybňuje jej „sebavedomie“, preveruje tón, porovnáva preklad s intuíciou a kontextom.

Pre mnohých je reakcia na túto neistotu pragmatická: učiť sa, čítať, skúšať, porovnávať. Ak organizácia nefinancuje vzdelávanie, hľadajú webináre a kurzy si platia sami. Obdivuhodné – no neudržateľné. Premeniť učenie sa novej technológii na nikdy nekončiacu osobnú brigádu, znamená privatizovať riziká. A v profesii, ktorá si zakladá na reflexívnej praxi, je zvláštne sledovať inštitucionálne ticho tam, kde by mali byť školenia, výmena skúseností a jasne napísané usmernenia.

Pravidlá, ktoré chýbajú

Tým sa dostávame k tretej prekážke: chýbajúcim pravidlám. V niektorých kanceláriách existujú usmernenia len „vo vzduchu“ – odovzdávané na poradách, uložené v svalovej pamäti niekoľkých nadšencov. Inde sú formálne pravidlá síce vo vývoji, ale ešte neexistujú v praxi. Sociálni pracovníci kladú základné otázky: Čo môžeme vložiť do chatu? Čo musí byť vždy anonymizované? Ktoré nástroje nekolidujú s našou povinnosťou starostlivosti? – a odpovede sa líšia od stola ku stolu. Menšina, ktorá dôveruje vlastnému úsudku aj úsudku kolegov, spochybňuje, či sú pravidlá vôbec potrebné. Je to upokojujúci prístup v rýchlo sa meniacom prostredí – upokojujúci, a zároveň riskantný. Keď si každý myslí, že je opatrný, nikto nenesie zodpovednosť za nešťastné dopady.

Iní uvažujú vo väčšom meradle: ak najsilnejšie modely vlastnia globálne korporácie, potom debata o pravidlách nemôže zostať uzavretá v príručke jednej organizácie. Predstavujú si niečo ako AI obdobu úradu verejného zdravotníctva alebo „AI OSN“: nezávislých audítorov, vymáhateľné štandardy a mandát, ktorého cieľom nie je zvyšovať hodnotu pre akcionárov, ale chrániť verejnosť – najmä tých, ktorí majú len malú vyjednávaciu silu.

Kontrola, halucinácie a korporátne počasie

Kontrola sa v rozhovoroch objavuje v dvoch rovinách. Makro – kto riadi a vlastní modely? A mikro – čo vychádza z okna chatbota? Na makro úrovni rezonuje obava zo zopakovania scenára sociálnych sietí: nechali sme ich vyrásť bez regulácie a neskôr zistili, aký extrémny a neželaný vplyv na nás majú. Pracovníčky sa obávajú, že ich údaje potichu odtečú niekam preč, že nastavenia budú skryté v neprehľadnom jazyku právnych zmluvných podmienok a že budúcnosť, v ktorej bude najlacnejšia umelá inteligencia zároveň najmenej bezpečná a najviac dravá pri ťažení dát, je bližšie, než by sme chceli.                  

Na mikro úrovni ich trápi problém „dôveryhodného nezmyslu“– riziko, že systém vyprodukuje presvedčivú, no úplne nesprávnu odpoveď. Požiadate o zhrnutie zákona, dostanete uhladený blábol. Vyžiadajte si textový dokument na stiahnutie a systém vám sľúbi niečo, čo vôbec nedokáže splniť. Jednou z obrán je redundancia: položiť tú istú otázku viacerým modelom a porovnaním si vytvoriť obraz pravdy. Občas to funguje akceptovateľne, no vždy to žerie čas. Nielen v takých chvíľach sa človek mení na kontrolóra kvality technológie, ktorá sa predáva ako dôveryhodná.

Glykemická špička a dojazd so závratom

Generatívna umelá inteligencia v ľuďoch vyvoláva osobitný dojem – je nápomocná, dychtivá odpovedať, lichotivá – niektorí pracovníci ju opisujú ako „dopamínovú mašinu“. Je to akýsi sérotonínom presiaknutý bratranec produktivity: ilúzia jasnosti, jemné bzučanie pokroku. A spolu s tým prichádza aj strach zo závislosti. Ak systém dokáže sám načrtnúť nudné memorandum a preložiť nezáživnú správu, dovolíme, aby nám stuhli ruky, zúžil sa slovník a otupila pozornosť pre detaily? Jeden z pracovníkov žartuje, že sa musel prestať pýtať chatbotu, čo má jesť na raňajky. Iný kolega sa tak spolieha na hlasové ovládanie, až si všimol, že prestáva vedieť plynulo písať na klávesnici.

Krátkodobý efekt – úľava od administratívneho preťaženia – je skutočný a vítaný. No dlhodobé riziko je oveľa subtílnejšie: profesia, ktorá si zakladá na úsudku, ho môže deň po dni po kúsočkoch nevedome delegovať na nástroj, ktorý jednoducho nemá – a s veľkou pravdepodobnosťou nikdy nebude mať – základné predpoklady pre etické usudzovanie.

V pozadí pritom poblikávajú temnejšie obavy: príbehy o tom, ako AI podnecuje sebapoškodzovanie, či chatboty, ktoré sa hrajú na terapeutov bez akejkoľvek prípravy a nechávajú mladých ľudí – najmä tých, ktorým už migrácia narušila stabilitu – v ešte väčšom ohrození. Aj keď sú tieto scenáre zriedkavé alebo len sprostredkované cez fámy, prebúdzajú v sociálnych pracovníkoch a pracovníčkach ochranný reflex, ktorý je pre ich profesiu úplne základný.

Etika vloženého textu

Nik nepotreboval interné smernice na to, aby pochopil základné pravidlo: čo by ste nepovedali na verejnosti, to nevkladajte ani do chatbota. Napriek tomu sa pravidlá nedodržiavajú bezchybne. „Všeobecné otázky“ sa pod tlakom prestávajú tváriť všeobecne. Objavia sa mená. Objavia sa dátumy. Tréner odporučí nový nástroj s prívetivým rozhraním – a neskôr kolegyňa zistí, že jeho dátové praktiky sú previazané so štátom, ktorý vzbudzuje obavy. Softvér letí z počítača preč; ponaučenie o tom, že ani západné platformy nie sú bez problémov, vnímame len napoly.

Najpraktickejšie riešenie znie banálne, no banálne rozhodne nie je: poskytnúť pracovníkom licencovaný, organizačný prístup k nástrojom, nastavený tak, aby citlivé vstupy nekončili potichu v tréningových dátach modelu. K tomu treba pridať jasné, overené štandardy anonymizácie a pravidelné obnovovanie znalostí. A nezamieňať si používanie nástroja so súhlasom užívateľov služieb sociálnej práce: ich právo na súkromie nesmie padnúť za obeť produktivite.

Náklady, ktoré nevidíme

Aj najnadšenejší používatelia cítia určitý nepokoj. Energetická náročnosť dátových centier, rastúca potreba výpočtového výkonu – to všetko zostáva mimo dohľadu. Jeden pracovník žartuje, že obmedzuje „ďakujem“ v chate – malé predsavzatie digitálneho minimalizmu. Vtip zároveň uvoľňuje napätie: pripomína, že pohodlie nikdy nie je zadarmo.

A potom je tu otázka samotného zmyslu. Niekedy je GenAI jednoducho zbytočná. Ak cudzinec dostatočne dobre hovorí jazykom krajiny, ak sa záťaž v rámci sociálneho programu znížila, ak ušetrený čas znamená menšiu prítomnosť, čo vlastne optimalizujeme? Tá istá sociálna pracovníčka, ktorá kedysi odmietala smartfón, sa dnes môže spoliehať na AI, aby jej odbúrala byrokraciu počas dňa – a napriek tomu sa pýta: „Kde bol vlastne ten nedostatok, ktorý má tento nástroj vyplniť?“

Čo vie prvá línia

Keď o krok odstúpime, objaví sa jasný vzorec. Pracovníci, ktorí sú k migrantom najbližšie – prekladatelia systémov aj utrpení – sa takmer automaticky stali prvými svedkami toho, akú spoločenskú textúru umelá inteligencia prináša. Toho, že aj tie najoslnivejšie funkcie sú zbytočné, keď vypadne signál. Že osobná zvedavosť nenahradí inštitucionálnu zodpovednosť. Že pravidlá písané až po porušení sú len divadlom. Že nádej a opatrnosť môžu koexistovať. A že technológia nikdy negarantuje bezpečie človeka.

Ich prístup je svojím spôsobom predvídavý. Český a slovenský kontext – digitálne vyspelý, pomerne otvorený prijímaniu AI a zároveň zahltený požiadavkami migrácie – ponúka akýsi náhľad do budúcnosti. To, čo sa deje tu, sa pravdepodobne neskôr stane inde, možno s ešte menšími zdrojmi a s podobným súborom rizík. Ponaučenie teda neznie „prijať alebo odmietnuť“. Znie: „prijímať s jasne stanovenými hranicami, odmietať skratky a nikdy si nemýliť rýchlosť so starostlivosťou.“

Text vznikol s podporou nadácie Rosa Luxemburg Stiftung, so zastúpením v Českej republike. Za obsah je plne zodpovedný vydavateľ; postoje prezentované v texte nemusia nutne predstavovať stanovisko nadácie.