Tavaly év végén írtunk róla részletesen, hogy az önmagukat vezető autóknak, illetve az autót irányító számítógépes programnak extrém helyzetekben nehéz morális döntéseket kell majd hoznia.
Ha kiszalad egy gyerek az autó elé, és nem kerülhető el az ütközés, akkor az automata inkább rántsa félre a kormányt, és sodorja veszélybe az utasokat, vagy inkább gázolja el az úttestre tévedt gyereket?
Az amerikai MIT kutatói Moral Machine nevű oldalukon azt próbálják felmérni, hogy az emberek hogyan döntenének ilyen lehetetlen szituációkban.
Tizenhárom kérdésre kell válaszolni. Egyszerűekre, mint hogy inkább kutyákat vagy inkább embereket üssön el az autó, ha csak ezek a választások, és nehezebbeket, mint hogy az autóban ülő egy utast védje a szoftver, vagy az úttesten lévő több embert.
A válaszadás alapján azt próbálják megállapítani, hogy ilyen élet-halál morális kérdésekben milyen szempontok számítanak leginkább az embereknek.
Érdemes figyelmesen végigmenni a kérdéseken, a végén azt is meg lehet nézni, hogy a válaszadók többsége hogyan döntött egyes helyzetekben. Sőt van egy "Design" gomb is, amivel saját dilemmát lehet létrehozni.
Kommentek
Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.