A gyakorlatban tesztelték a robotika első törvényét

robotika első törvénye Asimov robot
Vágólapra másolva!
Megtaníthatunk arra egy robotot, hogy jó legyen? A kérdés annyira foglalkoztatta a kutatókat, hogy úgy döntöttek etikai csapdát állítanak fel egy gépnek.
Vágólapra másolva!

A kísérlet során Alan Winfield, a Bristol Robotics Laboratory kutatója arra programozott be egy robotot, hogy megakadályozzon más – az ember szerepét betöltő - robotokat abban, hogy egy lyukba essenek. A vizsgálat a robotika első törvényének leegyszerűsítésén alapul, amely kimondja, hogy a robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen – írja a New Scientist.

A robotika három törvénye

A sci-fiben a robotika három törvényét Isaac Asimov, orosz származású amerikai író és biokémikus alkotta meg. A történeteiben szereplő robotok zöme ezen szabályokat követi.

1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

A három törvénynek meghatározó szerepe van Asimov írásaiban, de a mesterséges intelligencián dolgozó tudósok is gondolkoznak saját jövőbeli robotjaiknak asimovi törvényekkel való felruházásán.

Az első próbálkozás sikeresnek bizonyult. Amint az ember szerepét betöltő gép elindult a lyuk felé, a robot közbelépett és eltolta az útból. Amikor viszont egyszerre két embert helyettesítő gépet indítottak a lyuk felé, a robot arra kényszerült, hogy válasszon. Néhányszor megmentette az egyiket és a másikat hagyta elveszni, más esetekben pedig sikeresen megmentette mindkettőt. A 33 próbálkozásból azonban 14 esetben a robot annyit tétovázott, hogy mindkét embert megszemélyesítő eszköz a lyukba esett.

Winfield szerint a robot „etikai zombiként” viselkedett: arra programozták, hogy megvédjen másokat, de nem értette a döntése mögött álló érveket. A kísérletet a 2014-es TAROS (Towards Autonomous Robotic Systems) című robotokkal foglalkozó konferencián mutatták be.

Egyre aktuálisabb

A mostanihoz hasonló kísérletek azért is egyre időszerűbbek, mert hamarosan elterjedhetnek az önmagukat vezető, automatizált gépjárművek, amelyeknek mérlegelnie kell az utasok biztonságát egy motoroséval, vagy gyalogoséval szemben. Ez egy jelenleg meglehetősen összetett és ismeretlen terület, a harci robotok fejlesztése azonban kínálhat megoldást.

Ronald Arkin, a Georgia Institute of Technology számítógéptudósa egy olyan algoritmust dolgozott ki a harci robotok számára, ami segítheti őket abban, hogy a lehető legjobb döntést hozzák egy veszélyes, harci helyzetben. Az algoritmust már sikeresen tesztelték egy szimuláció során: a programmal rendelkező drónok képesek voltak dönteni arról, hogy ne lőjenek, vagy minimalizálják a veszteségeket egy olyan helyzetben, amikor például egy kórház, vagy iskola volt a közelben.