
DANIELA VACEK z Filozofického ústavu SAV získala prestížnu cenu ESET Science Award v kategórii Výnimočná osobnosť vedy do 35 rokov. Vo svojom výskume sa venuje etike a zodpovednosti umelej inteligencie – od autonómnych áut cez AI terapeutov až po digitálne avatary. Hľadá tiež odpovede na otázku, ako urobiť tieto moderné technológie dôveryhodné a bezpečné pre spoločnosť.
Výskumu etiky a zodpovednosti umelej inteligencie (AI) ste sa začali venovať, keď ešte téma AI nebola natoľko aktuálna. Čo vás k nej priviedlo? Bola to fascinácia technológiou alebo skôr obava z dôsledkov, ktoré so sebou prinesie?
Už pri samoriadiacich autách som si uvedomila, že v budúcnosti sa zrejme budú po cestách pohybovať vozidlá, ktoré nebudú vyžadovať, aby človek dozeral na premávku a v prípade potreby zasiahol, keďže by mali byť kompetentnejšie než my. Kto ale preberie zodpovednosť, ak auto spôsobí nehodu alebo niekoho zabije? Ten, kto sedel v aute a nemal povinnosť dozerať na dopravnú situáciu? Výrobca? Neskôr som zistila, že k článku od Andreasa Matthiasa z roku 2004 už vznikla vedecká debata o týchto medzerách v zodpovednosti.
Autonómne auto už však niekoho zabilo, nie je to tak?
Áno, ale vtedy to ešte bolo na koho zhodiť. Nešlo o plne samoriadiace vozidlo, ktoré by fungovalo bez akéhokoľvek dozoru človeka. Práve to je však zmyslom ich zavedenia – keď budú efektívnejšie, na cestách by malo vďaka nim zomierať menej ľudí. Človek už nebude mať povinnosť, a možno dokonca ani právo zasiahnuť do riadenia. A tu sa vynára otázka zodpovednosti. V prípadoch, ktoré sa stali, sedel v samoriadiacom vozidle človek, ktorý mal povinnosť dozerať na bezpečnosť jazdy. Momentálne je teda štandard taký, že firma zodpovednosť zvalí na toho človeka.
„AI by napríklad vôbec nemala byť kamarátom nejakého dieťaťa. Ak však takéto kamarátstvo vznikne, tak čo by sme mali od AI v takomto vzťahu očakávať?“
Váš výskumný záber v oblasti etiky a zodpovednosti AI je široký. V jednom zo svojich výskumov sa venujete rolám AI. V čom je problematické, keď napríklad četbot – virtuálny asistent na textovú komunikáciu – zastáva rolu terapeuta, priateľa?
Dlho sme vnímali AI len ako nástroj. V súčasnosti sa však začína tento diskurz meniť, najmä čo sa týka jej používateľov. Tí v súvislosti s AI používajú antropomorfický slovník, teda pripisujú jej ľudské vlastnosti. Hovoria napríklad, že chatbot myslí, zvíťazil v súťaži, či dokonca že má úmysly. V kontexte toho začíname hovoriť aj o tom, že AI je môj terapeut, poradca, kamarát, dokonca partner. Toto všetko sú roly.
Keď sa pozrieme na teóriu, ktorá hovorí o rolách, roly ako také sú rezervované pre ľudí. A aj vo filozofickej diskusii sú vymedzené tak, že tieto požiadavky AI spĺňať nemôže. Otázkou je, čo s tým. Na jednej strane teória hovorí, že sa to nedá, na druhej strane tu máme používateľskú prax, ktorá sa tvári, že už teraz AI tieto roly obsadzuje.
Čo ma však na tom zaujíma najviac, sú veľké etické dôsledky, ktoré to má. Pretože tieto roly so sebou často nesú rôzne normatívne očakávania, požiadavky, práva, povinnosti a toto všetko je niečím, čo nepripisujeme umelej inteligencii. AI by napríklad vôbec nemala byť kamarátom nejakého dieťaťa. Ak však takéto kamarátstvo vznikne, tak čo by sme mali od AI v takomto vzťahu očakávať? To je jedna z otázok, ktorou by som sa chcela zaoberať.
„Na rozdiel od človeka mi AI četbot vždy odpíše, bude ma podporovať v tom, aká som, bude ma chváliť. Keďže ľudia sú kritickejší a majú menej času, od ľudí sa nám toto často nedostáva.“
Prečo takéto kamarátstva vznikajú?
Keďže je už v súčasnosti u AI možná veľká miera personalizácie a možnosť vytvorenia ľudského vizuálu – na povrchovej úrovni je niekedy ťažké rozlíšiť, či si človek četuje s reálnym človekom alebo s AI četbotom. Zásadný rozdiel je však v tom, že na rozdiel od človeka mi AI četbot vždy odpíše, bude ma podporovať v tom, aká som, bude ma chváliť. Keďže ľudia sú kritickejší a majú menej času, od ľudí sa nám toto často nedostáva.
Ktorá z týchto rolí je podľa vás z hľadiska etiky a bezpečnosti najproblematickejšia a ktoré AI roly môžu človeku priniesť benefity?
Roly, ktoré sa viažu k blízkym vzťahom ako partnerstvo a kamarátstvo, považujem za dosť rizikové. Podobne je to s rolami ako asistent či poradca, najmä ak chceme aj rady k zdravotnému stavu a podobným citlivým záležitostiam. Tieto rizikové roly sú však zároveň rolami, ktoré môžu priniesť aj benefity. Predstavme si človeka, ktorý je úplne opustený. Minimálne z krátkodobého hľadiska môže byť rola priateľa alebo partnera pre neho pozitívna.
No je vôbec možné hovoriť o krátkodobom kontakte? Nehrozí, že sa človek v takomto „vzťahu“ zacyklí?
Keď som nedávno čítala reakcie používateľov na ohlásené obmedzenie četu pre používateľov do 18 rokov na platforme Character.AI, ľudia písali, že im čet pomáha riešiť osamelosť a ponúka im istú formu úniku pred depresiami. Ja osobne by som to neriešila úplným zákazom ako v tomto prípade, len by už mladí ľudia nemali taký prístup, na aký boli zvyknutí. Z krátkodobého hľadiska to podľa mňa nie je zlé, pokiaľ človek neobmedzí svoje medziľudské vzťahy iba na túto formu komunikácie.
Čo sa týka otázky, či je odtiaľ následne ešte možný únik, podľa mňa áno. Jeden z používateľov sa vyjadril, že je od četu závislý, ale že by uvítal isté obmedzenie, aby sa tejto závislosti postupne zbavil a mohol sa vrátiť späť do reálneho sveta. Ak napríklad chcú ľudia schudnúť, možno by im pomohlo, keby doma nemali sladkosti a nemali tak chuť o desiatej večer chrúmať oriešky v čokoláde. Chcem tým povedať, že je ľahšie, ak existuje istá limitácia.
Možno pre bližšie vysvetlenie: spoločnosť Character Technologies Inc., ktorá prevádzkuje Character.AI, plánuje úplne obmedziť prístup k svojmu četbotu pre používateľov do 18 rokov pod tlakom obvinení zo spoluúčasti na psychických problémoch detí, pokusoch o samovraždu a v jednom prípade aj smrti tínedžera, ktorý o svojich samovražedných plánoch komunikoval s četbotom a ten ho v jeho plánoch podporil.
Podľa mňa spoločnosť spravila dobrý krok, len to mohli urobiť graduálne. Napríklad uberať po jednej hodine. Nie som psychológ, ale keď sa nad tým zamyslím – ak chce človek urobiť akúkoľvek závažnú zmenu vo svojom živote, je ľahšie spraviť to postupne.
„Zatiaľ panuje názor, že ak umenie vytvorila AI, nie je to hodnotné, nie je to dostatočne dobré, lebo nejde o skutočný ľudský výtvor s emóciou a hodnotou.“
Aké benefity so sebou AI prináša?
Nájdeme ich napríklad v medicíne pri diagnostike. Takisto keby v kontexte samoriadiacich vozidiel zomieralo menej ľudí pri haváriách, bol by to úžasný úspech. A aj keď je to možno trochu kontroverzné, aj v umeleckom kontexte vznikajú zaujímavé veci, len verejnosť sa s tým ešte nevyrovnala. Zatiaľ panuje názor, že ak umenie vytvorila AI, nie je to hodnotné, nie je to dostatočne dobré, lebo nejde o skutočný ľudský výtvor s emóciou a hodnotou. Treba si však uvedomiť, že výsledok generovali ľudia, že sa to učilo na ľudských dátach a aj samotný systém vyvinuli ľudia. Takže aj za obrázkom alebo videom je obrovský ľudský podiel.
„Vo filozofii je momentálne konsenzus taký, že AI nespĺňa podmienky na kreativitu.“
Keď už sme pri umení, len nedávno vzbudila vo filmovom priemysle veľké vášne herečka Tilly Norwood. Nejde o skutočnú osobu, ale dielo AI z dielne prvého AI talentového štúdia na svete, ktoré vytvára a spravuje hyperrealistické digitálne hviezdy. Umelci tvrdia, že kreativita je a aj naďalej by mala ostať výsadou človeka. Z pohľadu filozofie – je namieste privlastňovať si tvorivosť, nápaditosť, kreativitu? A je to vôbec udržateľné, keďže sme vytvorili systémy, ktoré napríklad filmy možno už v blízkej budúcnosti dokážu vytvoriť rýchlejšie, lacnejšie a možno aj lepšie?
Vo filozofii je momentálne konsenzus taký, že AI nespĺňa podmienky na kreativitu. Ale môžeme povedať, že to je nápadité alebo originálne. Ale že by bola AI kreatívna, to by zatiaľ pri štandardných pojmoch kreativity úplne neprešlo. Samozrejme, je otázne, či je takáto filozofická teória udržateľná. Umelci už teraz pri svojej práci používajú AI. Len teda stále – keď ľudia zistia, že ide o produkt AI, už tam podľa nich chýba prínos umelca.
Aj diskurz okolo Tilly Norwood je pomerne mätúci. Na jednej strane ju predstavovali ako štetec, ktorým sa maľuje nejaké umelecké dielo, potom ju predstavili ako herečku, čiže niekoho, kto zastáva určitú rolu, a nakoniec bola aj umeleckým dielom samotným. To sú konceptuálne tri rozdielne veci. Čím teda vlastne je? Myslím si, že práve z toho pramení chaos, pretože to nemáme poriadne utriedené.
A potom tu máme známu Collingridge dilemma – metodologickú dilemu, ktorá hovorí, že kým je niečo nové a nie je to ešte až tak veľmi rozšírené, ako napríklad táto situácia s AI hercami, ešte sa s tým dá niečo robiť. Pretože len čo sa to rozšíri, bude už ťažké prevziať kontrolu. Problém však je, že nevieme, čo presne by sme mali urobiť. Jednoducho nedokážeme odhadnúť všetky komplexné dôsledky. Ako príklad môžeme uviesť Facebook. Možno ešte na začiatku by bolo možné moderovať plošne obsah, no dnes už je ťažké odkontrolovať ho.
Nevidíte ako problém, že sa postupne začínajú zlievať hranice medzi skutočným obsahom na sociálnych sieťach a tým, ktorý bol vygenerovaný AI? Najmä pre staršie ročníky to môže byť náročnejšie rozlíšiť. Najmä v prípade klamlivého a podvodného obsahu.
Ak sa človek skutočne sústredí na detaily, dnes je ešte stále možné video alebo obrázok vygenerovaný AI rozlíšiť. Vývoj však bude napredovať a o pár rokov to už môže byť skutočne ťažšie. Napríklad deepfake videá môžu byť len na pobavenie, ale pokiaľ je tam použitá tvár konkrétneho človeka, je to problém.
Ďalšou kategóriou sú brainroty (pútavý, ale mentálne prázdny obsah, pozn. red.), ktoré sledujú najmä mladí ľudia. Mňa osobne zaujalo, že keď nimi „nakŕmili“ jazykový model, mentálne mu to uškodilo. Pravdepodobne ani deťom to teda kognitívne príliš neprospieva. Samozrejme, problematické sú prípady, keď ide o finančný podvod alebo keď vznikne video s politikom, ktorý v AI videu rozpráva niečo, čo nikdy nepovedal.
Pokiaľ teda AI spôsobí ekologické, sociálne, politické škody, prípadne individuálne ľudské tragédie – kto by mal podľa vás niesť zodpovednosť?
V súvislosti s AI už nehovoríme o potenciálnych politických, environmentálnych a sociálnych dosahoch, pretože to všetko sa už deje. Napríklad fungovanie AI si vyžaduje veľké množstvo energie a to má ohromný environmentálny dosah. Takisto odporúčacie systémy, čo je tiež forma inteligentných technológií, dokázali ovplyvniť politické výsledky. Pokiaľ ide o zodpovednosť, do veľkej miery by mala byť v rukách technologických firiem, ale nie je to až také jednoduché. Zainteresovaných je tu viacero strán a myslím si, že pri každom dáva zmyslel pýtať sa, čo bola ich zodpovednosť v čase, keď konali a či si ju splnili.
Venujete sa aj problému nepriamej zodpovednosti za negatívny dosah AI na svet.
Áno, ide o pojem, ktorý umožňuje pripisovať zodpovednosť niekomu inému než aktérovi. Poznáme ho z kontextu, keď zamestnávateľ nesie zodpovednosť za to, čo urobil zamestnanec, pričom ide aj o situácie, keď tomu zamestnávateľ nemohol predísť. Ide teda o formu zodpovednosti, ktorá sa pripisuje bez ohľadu na vinu. S kolegom Matteom Pascuccim a Milošom Kostercom, ktorý vedie naše oddelenie, sme poukázali, že táto prax je rozšírená aj v morálke.
Paradoxné je, že napriek tomu, že je taká rozšírená, tak sa o tom takmer vôbec neteoretizuje. Preto sme sa na to pozreli a argumentovali, že takáto prax existuje aj v morálke. Ilustrovať to môžeme na situácii, že keď vaše dieťa niečo rozbije v obchode, nepôjde to na súd, ale priamo na mieste obchod odškodníte. Aj mne osobne sa stalo, že som ako dieťa pri hre poškodila džínsy spolužiačke. Jej rodičia si vypýtali kompenzáciu a moji rodičia s tým súhlasili. Nemali právnu povinnosť urobiť to, bola to morálna prax. A takéto niečo sa bežne deje.
Aj v prípade AI máme príležitosť tento pojem využiť. Keď sa niekomu zhorší psychický stav, lebo komunikuje s AI četbotom – aj v prípade, že by to neprešlo po právnej stránke, spoločnosť by mala prijať nepriamu zodpovednosť z morálneho hľadiska a poskytnúť obeti kompenzáciu. V prípade samovraždy tínedžera v súvislosti s Character.AI môžeme tiež hovoriť o vine, pretože sa dalo predpokladať, že sa podobné veci budú diať.
Na druhej strane – kde sa končí zodpovednosť technologických spoločností a začína sa zodpovednosť samotného používateľa? Predsa len sú to naše prompty, teda inštrukcie a požiadavky, na základe ktorých je chatbot navigovaný k čo najpresnejšej odpovedi.
Určite máme aj mnoho prípadov, kde by tá zodpovedná strana mala byť používateľ. Dobrým príkladom je medicínska oblasť – keď lekár prijme od AI systému nejakú diagnózu, nemal by ju len tak nereflektovane prijať. Ide o odporúčanie, ktoré treba jednoducho vždy zvážiť a overiť ho.
Skúmate tiež tému AI avatarov, ktorí sa stávajú čoraz realistickejšími. Je možné, že budeme jedného dňa zodpovední aj za „morálne správanie“ nášho digitálneho dvojníka?
Avatar vyzerá ako reálny človek a reprezentuje konkrétneho človeka. Jedného dňa bude nielen vedieť rozprávať ako ja, vyzerať ako ja, znieť ako ja, ale bude tiež vedieť komunikovať za mňa spôsobom, že to bude v súlade s mojimi hodnotami, presvedčeniami, názormi. Napríklad ak budem musieť ísť na nejaký nudný míting, pošlem tam namiesto seba svojho avatara. A teraz si predstavme, aké to môže mať dôsledky.
Keby som šla na míting ja sama, mám kontrolu nad tým, ako hlasujem, čo interpretujem, k čomu sa chcem vyjadriť a ako sa chcem vyjadriť. Pri AI avataroch však vzniká priestor medzi tým, čo ešte priamo kontrolujem a čo už je generatívna AI, ktorá sa môže odchýliť od mojich úmyslov. Môže tu vzniknúť zaujímavý problém, na ktorý upozornila Mihaela Constantinescu, ktorá vedie ERC projekt avataResponsibility o zodpovednosti AI avatarov a ktorá ma motivovala venovať sa aj tejto téme.
V akom štádiu vývoja a použiteľnosti sú v súčasnosti avatary?
Zatiaľ to nie je niečo, čo by bolo široko rozšírené, ale začínajú sa objavovať čoraz častejšie, pretože technologicky to už funguje. Technológia sa dokáže učiť z našich dát – napríklad ak by som poskytla svoju mailovú komunikáciu, články, texty, čety s inými ľuďmi a zvukové nahrávky, dokázalo by to hovoriť nielen mojím hlasom, ale aj štýlom.
Pointa je však v tom, že tieto modely sa učia nielen na nejakej malej podskupine mojich dát, ale aj na obrovskom množstve iných dát a ľudí, ktorí veria iným veciam ako ja, takže keď četbot bude hovoriť v mojom mene, nebude hovoriť iba na základe mojich dát. A to je automaticky riziko, že dôjde k odchýlkam.
V súčasnosti to nie je ani tak o tom, či si to môže niekto dovoliť, ale skôr o tom, kto je odhodlaný to vôbec skúšať. Ako príklad môžeme uviesť výskum, kde napríklad zobrali texty filozofa Daniela Dennetta a vytvorili četbota, ktorý odpovedá namiesto neho. Experti, ktorí sa venujú jeho dielu, by pravdepodobne na konkrétnej odpovedi nevedeli rozlíšiť, či to napísal on alebo četbot.
„Keď už teraz avatar zastupuje človeka, je otázne, dokedy budeme môcť povedať, že sme nenahraditeľní.“
Mení sa s avatarmi aj naše chápanie identity?
Existuje filozofická diskusia o tom, že veľakrát si sami seba uvedomujeme v zmysle, že sme vzácni. Že sme jedineční, nenahraditeľní a každý sme iný. Keď niekto zomrie, je nenahraditeľný, je jedinečná entita. Ale keď už teraz avatar zastupuje človeka, je otázne, dokedy budeme môcť povedať, že sme nenahraditeľní.
Keď ma v mnohých situáciách bude vedieť avatar nahradiť a ja to odobrím, je možné, že sa naruší nenahraditeľnosť človeka. Takisto keď nám zomrie blízka osoba, tiež je to priestor, kde sa dajú avatary využiť.
Aj keď AI systémy zaznamenali úžasný pokrok, stále nejde o všeobecnú umelú inteligenciu, ktorá by dokázala samostatne uvažovať. Isté spektrum odborníkov si myslí, že sa môže stať realitou už v blízkej budúcnosti. Z hľadiska etiky, bezpečnosti a spoločenských dosahov pôjde o ešte väčšiu výzvu. Je namieste zaoberať sa dôsledkami jej fungovania už dnes?
Nie je to úplne moja obľúbená otázka, pretože patrím skôr medzi filozofov, ktorí si myslia, že sme ešte stále veľmi ďaleko od superinteligencie. Najskôr musíme vedieť, aspoň ideovo, ako by sme sa tam vedeli dostať technologicky, aby sme vedeli hovoriť o tom, aké to bude mať riziká a ako im predchádzať. Sú tu aj hlasy, ktoré sa na to pozerajú behavioristicky, a pokiaľ to bude mať výsledky podobné alebo lepšie ako človek, vyhlásime to za superinteligenciu, ale to podľa mňa nestačí.
Zatiaľ sú všetky antropomorfické črty pripisované AI neprávom. Nemyslí to kriticky, neusudzuje, neargumentuje, chýba tomu porozumenie, empatia, hodnoty, nemáme umelú entitu, ktorá by premýšľala a chápala jazyk. Toto všetko by muselo byť splnené, aby sme mohli hovoriť o superinteligencii.
Myslíte si, že v súvislosti s AI potrebujeme novú etickú filozofiu pre 21. storočie? Niečo, čo by presiahlo tradičné rámce morálky a obsiahlo aj vzťah človeka a AI?
Myslím si, že potrebujeme preorganizovať súčasti existujúcich teórií. Musíme sa pozrieť na staré pojmy a zvážiť, kde treba niečo revidovať a kde si ešte vystačíme s pôvodným pojmom.
V ďakovnej reči po získaní ocenenia ESET Science Award ste dali verejný prísľub, že urobíte všetko pre to, aby sme mali zodpovednú a dôveryhodnú umelú inteligenciu. Je to vôbec možné, ak je vývoj AI nástrojov v rukách veľkých technologických firiem s vlastnými ekonomickými záujmami?
Áno, do veľkej miery je to v rukách firiem, ale pokiaľ chcú mať biznis, musia mať aj spokojných používateľov. Pokiaľ zomierajú deti, keď si četovali s četbotom, nepríde mi to ako dobrý biznis nielen preto, že je to morálne problematické, ale ide tiež o reputačný problém, čo následne nie je dobré ani pre ich zisk. Myslím si, že aj firmy budú hľadať model, v ktorom im to bude finančne fungovať, a zároveň používateľom ich služby prinesú do života viac benefitov ako škody. To, čo je eticky v poriadku, pasuje aj pre novodobý biznisový model. Možno z krátkodobého hľadiska budú mať nejaké straty, ale ak chce firma zarábať, nemôže robiť niečo vážne eticky problematické. Je aj v ich záujme robiť to morálne prijateľným spôsobom.
Nuž a dôveryhodná a zodpovedná AI – oba tieto pojmy predstavujú skoro konceptuálny nonsens, pretože AI nevie byť ani zodpovedná ani dôveryhodná. Čo s tým? Je nutné riešiť to cez stakeholderov, teda zainteresované strany, ktoré sa podieľajú na vývoji, výrobe, nasadzovaní a používaní AI. Ich zodpovednosť je to, aby AI bola zodpovedná a dôveryhodná. Pre mňa je tiež zaujímavé pozrieť sa aj nakre iné formy zodpovednosti a dôveryhodnosti a zvážiť, či existujú aj také, ktoré možno pripisovať AI. Trochu som sa tejto téme venovala aj v nedávnom článku a rada by som v tom pokračovala najbližších 10 rokov.
Ak by ste mohli naučiť AI len jednu ľudskú hodnotu, ktorá by to bola?
Férovosť.
Aké sú vaše pracovné plány do budúcnosti?
Momentálne okrem Filozofického ústavu SAV (FIÚ SAV) pôsobím aj na Kempelenovom inštitúte inteligentných technológií (KInIT) a pomaly dokončujem svoje pôsobenie na Filozofickej fakulte Univerzity Komenského. Na FIÚ SAV som tento rok podala ERC Starting Grant v súvislosti s rolami AI.
S pôsobením na týchto inštitúciách som veľmi spokojná, ponúkajú priateľské a kreatívne prostredie a podporu. Napríklad na FIÚ SAV som mohla pracovať aj počas materskej, čo mi umožnilo ďalej viesť APVV grant – pre mňa osobne by to bola veľká strata, keby som musela prenechať jeho vedenie niekomu inému.
Od začiatku som vedela, že chcem kombinovať rodinu s prácou. Preto som veľmi vďačná, že som si veľakrát mohla v nosiči priniesť bábätko do práce alebo na konferencie a nikto mi za to nevynadal. Aj vďaka tomu som úplne nevypadla z výskumu, dokonca som za ten čas napísala štyri články, takže šlo o dobré rozhodnutie na oboch stranách.
Mojím cieľom je robiť excelentnú vedu a tiež rozšíriť kolaboráciu medzi FIÚ SAV a KInITom. Obe sú vo svojich vlastnostiach zaujímavé a jedinečné. Napríklad na našom oddelení analytickej filozofie FIÚ SAV komunikujeme po anglicky, vďaka čomu máme aj viacerých zahraničných kolegov a náš základný výskum publikujeme v top časopisoch. Pre excelentný výskum na KInIT je zas kľúčová aplikovateľnosť. Je tam tiež dlhá prax riešenia veľkých európskych grantov, v čom FIÚ SAV zatiaľ nemá skúsenosť.
Ešte predtým, než som sa pridala do tímu v KInIT, spolupracovali sme na APVV projekte, ktorý vediem, a tam sa ukázalo, že je to skvelá spolupráca, ktorá môže mať dobré výsledky. Určite by som aj do budúcna chcela túto spoluprácu medzi oboma inštitúciami prehlbovať tak, aby im to obom prospelo.
PhDr. DANIELA VACEK, PhD.
Pôsobí na oddelení analytickej filozofie Filozofického ústavu SAV a v tíme Ethics and Human Values in Technology na Kempelenovom inštitúte inteligentných technológií. Vo svojom výskume sa zameriava na otázky etiky a zodpovednosti za pozitívne aj negatívne dosahy AI vrátane konceptu nepriamej zodpovednosti. Doktorandské štúdium systematickej filozofie absolvovala na Univerzite Komenského v Bratislave, výskumné pobyty na University of York, University College London a University of Bayreuth. Je autorkou viacerých štúdií publikovaných v popredných medzinárodných časopisoch. Je laureátkou Ceny SAV za rok 2023 v kategórii mladých vedeckých pracovníkov a tento rok získala ocenenie ESET Science Award v kategórii Výnimočná osobnosť vedy do 35 rokov za prínos k rozvoju etiky umelej inteligencie a filozofie zodpovednosti.
Stanislava Longauerová
Foto: Linda Kisková Bohušová/ESET Science Award
Časopis Akadémia 6/2025