A tudósok hivatalos útmutatásokat dolgoznak ki a robotetikáról

NASA

Évtizedekkel ezelőtt, amikor a fantasztikus fantasztikus Isaac Asimov egy olyan világot képzelt el, amelyben a robotok mindennaposak. Ez már jóval azelőtt létezett, hogy még a legalapvetőbb mesterséges intelligencia is létezett volna, ezért Asimov létrehozta a robot viselkedésének alapvető keretét, az úgynevezett A robotika három törvénye . Ezek a szabályok biztosítják, hogy a robotok az emberiséget szolgálják, és nem fordítva. Most a British Standards Institute (BSI) kiadta a három törvény saját változatát. Sokkal hosszabb és nem is annyira frappáns.

Asimov változatában a Három Törvény célja annak biztosítása, hogy az emberek robotok elé kerüljenek. Csak referenciaként: Asimov törvényei megrövidített formában előírják a robotoknak, hogy őrizzék meg az emberi életet, engedelmeskedjenek az emberek által adott parancsoknak és védjék saját létüket. Természetesen vannak olyan esetek, amikor ezek a szabályok ütköznek. Amikor ez megtörténik, az első törvényt mindig a legnagyobb tiszteletben tartják.



A BSI dokumentumot a közelmúltban Oxfordban megrendezett Social Robotics and AI konferencián mutatták be az etikai kockázatértékelés robotokba ágyazásának megközelítéseként. Ahogy el lehet képzelni, a dokumentum bonyolultabb, mint Asimov törvényei, amelyek a kitalált pozitronikus agyba vannak beírva. A-tól működik hasonló előfeltevés mégis. 'A robotokat nem szabad kizárólag vagy elsősorban az emberek megölésére vagy ártására tervezni' - áll a dokumentumban. Azt is hangsúlyozza, hogy az emberek felelősek a robotok cselekedeteiért, és minden olyan esetben, ha a robot nem etikusan járt el, lehetővé kell tenni, hogy kiderüljön, melyik ember felelős.





ED-209, a Robocop gyilkos robotja

A BSI szerint a legjobb módszer arra, hogy az emberek elszámoltathatók legyenek robotjaikért, az, hogy az AI-tervezés átlátszó legyen. Ez talán sokkal nehezebb, mint amilyennek hangzik. Még akkor is, ha a robotokat irányító kód szabadon hozzáférhető, ez nem garantálja, hogy valaha is megismerhessük miért azt csinálják, amit csinálnak.



A neurális hálózatok esetében a kimenetek és a döntések a mély tanulás szüleményei. A hálózatban semmi sem utal rá, amely egy bizonyos eredményt irányítana, mint például az automatizált kód. Ha a bűnüldözésben alkalmazott, mélyen tanuló mesterséges intelligencia elkezdte megjeleníteni a rasszista magatartást, nem biztos, hogy könnyű kitalálni, miért. Csak át kellene képeznie.



Az AI tervezésén túlmutatva a BSI jelentése nagyobb elképzelésekre spekulál, mint például érzelmi kötelékek kialakítása robotokkal. Rendben van, ha szeretsz egy robotot? Erre nincs jó válasz, de határozottan kérdés lesz Szembenézünk. És mi történjen, ha túlságosan függünk az AI-től? A BSI arra kéri az AI-tervezőket, hogy ne vágják ki teljesen az embereket. Ha arra számítunk, hogy a mesterséges intelligenciára támaszkodunk egy munka elvégzéséhez, akkor talán nem vesszük észre, amikor viselkedése vagy prioritásai nem optimális eredményeket kezdenek elérni - vagy amikor fegyvereket kezd raktározni az emberiség megsemmisítésére.