„A fegyverek robotizálásának alapvető stratégiai következményei is lehettek. Használatukkal jelentősen csökken a belépési küszöb a fegyveres konfliktusokba, mert fellazul a jogos háború feltételrendszere, és a helyét a katonai szükségszerűség veheti át. A célzott gyilkosság, bár nem új jelenség, a robotizált fegyverrendszerekkel egyszerűbbé és gyakoribbá vált.
Így most egy nagy stratégiai paradigmaváltás jöhet, mert képessé válunk kockázatmentes háborúkat vívni folyamatosan és hosszú időn át.
Elkezdhetünk elképzelni egy világot, amiben az alacsony intenzitású háború a főszabály, ahol a célzott gyilkosság folyamatos lehetősége átveszi a stabil egymás mellett élés hosszú távú fejlesztésének a helyét. Ha egyszer eljutunk idáig, nem igazán látszik, hogy hogyan tudnánk kimászni belőle” – írják az UNESCO által felkért tudomány- és technológiaetikai szakértők a robotika etikájáról írt jelentésük vázlatában.
Hogy mennyire időszerű kérdéseket feszegetnek, azt jelzi, hogy a fenti, részben jövőidőben megfogalmazott aggályok akár múlt időben is megállnák a helyüket:
az Egyesült Államok lassan egy évtizede pont ilyen háborút vív Pakisztánban,
csak ezt hivatalosan nem nevezzük háborúnak. Talán azért, mert nehezen képzeljük háborúnak azt, amiben az egyik harcoló félnek nincsenek katonái a fronton. A drónok kezelői a nevadai sivatagban, légkondicionált konténerekből gyilkolnak, a munkanap végén pedig hazamehetnek szerető családjukhoz, hogy a tévé elé heveredve egy doboz sörrel pihenjék ki egy újabb irodai munkanap fáradalmait.
Ez pedig önmagában etikai kérdések újab sorát veti fel:
A robotika számos ilyen és ehhez hasonló etikai és morális dilemmát vethet fel, és nem csak a harci robotok terén. Amennyivel veszélytelenebbnek és unalmasabbnak tűnik, annyival bonyolultabb etikai problémák gomolyognak a gyerekek vagy idősek szórakoztatására gyártott társrobotok körül. Mindkét korcsoport hajlamos rá, hogy érzelmi kötődést alakítson ki ezekkel a még mindig inkább tárgyakkal, amelyek viszont egy kisebb meghibásodással is halálos fenyegetést jelenthetnek a használóikra.
Vagy vegyük az ipari robotokat, amelyeket egykor csak a nagy precizitást igénylő, gyakran ismétlődő munkafolyamatokban használtak, de az egyre fejlettebb autonóm döntéshozatali képességeikkel, mobilitásukkal egyre több területen képesek kiváltani az embert. Mennyire etikus ez a munkavállalókkal szemben, különösen akkor, ha a javuló termelékenység minden gyümölcsét a technológia tulajdonosa aratja le? Mondjuk ha azt vesszük, hogy a technikai fejlődéssel megjelenhetnek a felsőbbrendű számítási képességű és korlátlan adathozzáférésű robotmenedzserek is, akik már nem csak a képzetlen munkaerőt, hanem a képzettet is kiszoríthatják, talán gyorsabban megoldást találunk a problémára.
De még ezek a – a jelentésben amúgy bőségesen tárgyalt – jelenségek is eltörpülnek amellett a problémahalmaz mellett, amit
a morális gépek,
az érző, érzelmes, vagyis akár erkölcsi döntések meghozatalára is képes robotok megjelenése okozhat, amit a szakértők szerint „a tudományterület jövőbeni fejlődésének függvényében nem zárhatunk ki”.
A robotok viselkedését – még a nagyon szofisztikált és komplex, intelligens, autonóm robotokét is – jelenleg még alkotóik determinálják, akik megalkotják irányító algoritmusaikat. És bár pillanatnyilag a szakértők szerint még messze vagyunk attól, hogy a robotok etikai ágensekké, vagyis önálló véleményalkotásra és érzelmi megnyilvánulásokra képes, emberszerű lényekké váljanak, pár emberszerű tulajdonságot már akár a közeli jövőben is felvehetnek – ahogy már léteznek érzelmek megjelenítésére, kifejezésére képes humanoid robotok is.
Így záros határidőn belül szükségessé válhat a terület etikai szabályozása. Ahogy a kérdés az autonóm járművek esetében már fel is merült olyan, amúgy teljesen hétköznapi közlekedési helyzetekben is, amikor egy önjáró autónak döntenie kell, hogy egy elkerülhetetlen balesetben inkább saját magát, így utasai életét kockáztassa, vagy a másik szereplőjét. Például átgázoljon-e egy, az utcára váratlanul kirohanó óvodáscsoporton, vagy inkább az oszlopnak vezesse magát?
És ez még a könnyebbik probléma, legalábbis programozási szempontból. Az már érdekesebb kérdés, hogy a robotok és a mesterséges intelligencia idővel valóban emberszerű etikai ágenssá válhat-e, vagyis képes lehet-e elvek mentén cselekedni, lesznek-e erényei, képes lesz-e erkölcsi magyarázatot adni cselekedeteire?
És ha igen, akkor miként kell nekünk, embereknek ezekre a robotokra tekintenünk? Eljuthatunk-e odáig, hogy a robotok már nem pusztán eszközként, hanem morális lényként is értékesekké váljanak, és ha igen, akkor nem éremelnek-e ugyanolyan tiszteletet és védelmet, mint az emberek - vagy akár az emberszabású majmok?
Visszatérve a cikk elején tárgyalt harci robotokra, az esetükben ezek az etikai problémák némileg egyszerűbbek. A háborúk, a hadviselés alapvető jogi szabályrendszere, a nemzetközi humanitárius jog abban teljesen egyértelmű, hogy emberélet kioltásáról végső soron csak ember dönthet. És ez a robotetika szakértői szerint
így van jól.
Kommentek
Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.