Press "Enter" to skip to content

Asimov en de Wetten van Robotica

De Amerikaanse schrijver Isaac Asimov is onvermijdelijk in het science fiction genre. Samen met Robert A. Heinlein en Arthur C. Clarke wordt hij gezien als een van de “Grote Drie” van SF. Hij schreef voornamelijk harde science fiction, met als bekendste werk de “Foundation” serie. Deze serie won in 1966 de “Best All-Time Series” Hugo Award en werd recentelijk verfilmd voor Amazon als de gelijknamige tv-serie.

In het kortverhaal Kattenfoto’s, alsjeblieft verwijst ons hoofdpersonage naar “Asimov’s Wetten van Robotica”. Uit de context kan je ongeveer wel afleiden waar die voor staan, maar wat zijn die nu concreet en wat is hun geschiedenis in de SF-wereld?

De wetten van robotica werden voor het eerst geïntroduceerd door Asimov in zijn kortverhaal Runaround in 1942. Dit kortverhaal werd later verzameld in zijn verhalenbundel I, Robot en zou een van de belangrijkste principes en thema’s worden van zijn latere op robot-gebaseerde fictie, o.a. de Robot serie, de Lucky Starr serie en enkele van de Foundation boeken. De drie wetten luiden als volgt:

Eerste wet
Een robot mag een mens geen schade toebrengen of, door niets te doen, toelaten dat een mens schade wordt toegebracht.

Tweede wet
Een robot moet de bevelen van de mens opvolgen, tenzij deze bevelen in strijd zijn met de eerste wet.

Derde wet
Een robot moet zijn eigen bestaan beschermen, voor zover deze bescherming niet in strijd is met de eerste of de tweede wet.

Op het eerste gezicht lijken deze wetten redelijk vanzelfsprekend en eenvoudig. Als je rechten gestudeerd hebt zal je misschien al bijna een paniekaanval hebben bij de gedachte dat je deze wetten ooit zou moeten interpreteren. Zijn deze niet veel te vaag gedefinieerd? Wat bedoelen we met “schade toebrengen”? Telt emotionele schade ook? Wat als het onbedoeld gebeurd? Hoe definieer je “mens”? Hoe definieer je “robot”? Wat als je, door een van de wetten te volgen, onvermijdelijk een andere wet schendt? Wat als je voor een dilemma staat waardoor er sowieso mensen gekwetst zullen worden?

Dit zijn geen nieuwe vragen. Asimov verkende de limieten en gevaren van deze regels in zijn boeken. Je zou zelfs kunnen zeggen dat de hele reden voor het bestaan van deze regels is om te tonen waarom ze niet zouden werken. 

Laten we het klassieke trolleyprobleem nemen. Er is een trein die niet kan stoppen en die momenteel op een spoor rijdt richting een vijftal mensen. Jij bestuurt de trein. Je kan de trein op een ander spoor doen rijden, waardoor een onschuldige persoon komt te sterven, of je kan niets doen, waardoor de vijf omver gereden worden. Wat zou de robot doen in deze situatie, als hij de regels moet volgen? 

Asimov behandelt dit in zijn verhalen. Vroege, primitieve robots zouden waarschijnlijk bevriezen als ze voor deze keuze stonden, of zelfs crashen- blue screen of death. Latere, meer gesofisticeerde robots zouden kiezen voor de minst mogelijke schade, maar zouden nadien nog steeds bijgestuurd moeten worden. Als beide keuzes evenveel schade leken te veroorzaken, zou een robot willekeurig kiezen (dit wordt expliciet behandeld in The Robots of Dawn).

Deze wetten zijn tegelijk verouderd en toch blijven ze noodzakelijke filosofische kost. Robots spelen een steeds grotere rol in onze maatschappij. Het meest voor de hand liggende voorbeeld is zelfrijdende auto’s. Hier wordt het trolleyprobleem vertaald naar de echte wereld. Wat als een auto crasht en de robot maar één van de inzittenden kan redden? 

Voor echte AI researchers lijken de drie wetten misschien achterhaald. De meeste mensen zijn vooral bang voor Skynet-achtige toestanden. Maar dit zijn niet de hedendaagse problemen in de wetenschappelijke wereld. 

Het meest waarschijnlijke probleem is niet dat AI zal proberen om de wetten te breken om ons schade te berokkenen, maar dat AI zijn doelen op een onverwachte en nadelige manier bereikt. 

Om die reden is veel AI-onderzoek (inclusief AI-veiligheidsonderzoek) gericht op het verminderen van onverwacht gedrag. Dit is een probleem in de boeken van Asimov, maar in zijn boeken lossen de meeste onverwachte gedragingen zichzelf op, terwijl ze in werkelijkheid meestal uitmonden in een AI die niets nuttigs doet en misschien je apparatuur beschadigt.

De programmeur kan onmogelijk voor alle scenario’s iets bedenken, dus is het nooit zeker hoe een robot zal reageren in specifieke situaties, omdat er vreemde interacties kunnen zijn waarvan de programmeur niet weet dat ze bestaan.

Een goed recent voorbeeld van die laatste situatie is een Tesla-auto-ongeluk van enkele jaren geleden. De auto had problemen met het visueel identificeren van een voetganger, waardoor hij herhaaldelijk zijn interne label voor haar veranderde. 

Elke keer dat de voetganger een nieuw label kreeg, stelde de auto ook zijn schatting van haar positie en snelheid opnieuw in, wat betekent dat de auto zich niet realiseerde dat er een botsing dreigde. Het is duidelijk dat dit probleem niets te maken heeft met de wetten van Asimov.

Ook bij die tweede wet kan je heel wat vragen stellen. We leven in een tijd vol internet trolls en mensen die niets liever doen dan dingen kapotmaken. Mensen kunnen robots bevelen zichzelf te vernietigen. Omdat het gehoorzamen van een menselijk bevel voorrang heeft op het beschermen van zichzelf, zou de robot overgaan tot zelfvernietiging. Dit geeft veel te veel macht aan de mensen. Denk je echt dat geen mens dit ooit zou doen? Besef ook- een 13-jarig kind, een 5-jarig kind, het zijn allemaal ook mensen. 

Een belangrijker probleem is dus niet dat AI menselijke bevelen negeert, maar dat ze ze gehoorzaamt. Een AI die genoeg macht heeft is eigenlijk bijna een atoombom, en er hoeft er maar één in de verkeerde handen te vallen voor een ramp. Het is niet dat ze per ongeluk schade zullen aanrichten, het is dat een mens ze aan het werk zet met het specifieke doel om zoveel mogelijk schade aan te richten.

Het idee achter de wetten van Asimov is dat ze niet werken – we hebben geen manier gevonden om ze in een formele taal te formuleren op een manier die niet tot verschrikkelijke uitkomsten zou leiden, wanneer we de formulering letterlijk nemen en tot het logische uiterste gaan (wat min of meer is wat een optimaliserende AI zou doen). 

Meer dan 75 jaar later is het eigenlijk nog te vroeg om deze wetten in de praktijk toe te passen. We zijn nog in een vroegere fase, die van de veiligheidsvragen in plaats van ethische vragen. Het grappige is dat veel AI researchers en andere geïnteresseerden vaak geloven dat de wetten van Asimov het antwoord zijn, terwijl hij ons net wilde waarschuwen dat het onmogelijk is om voor dergelijke logica te zorgen, en dat het gedoemd is om te mislukken. Het deed me een beetje denken aan deze tweet die vorig jaar viraal gegaan is:

Sci-Fi auteur: In mijn boek verzon ik de Torment Nexus als een waarschuwend verhaal

Technologisch bedrijf: Eindelijk hebben we de Torment Nexus gecreëerd uit klassieke sci-fi roman Creëer de Torment Nexus niet

Als je deze problemen in groter detail wil verkennen, lees dan zeker de Robot boeken van Asimov. 

© 2022 Goran Lowie

Goran Lowie
Website | + posts

Goran Lowie is een ace/aro leerkracht Niet-Confessionele Zedenleer in het plattelandse Diksmuide. In zijn verwoede pogingen om aan zijn halfdode geboortedorp te ontsnappen is hij uiteindelijk bij speculatieve fictie en gedichten beland. Hij betreurde het gebrek aan aandacht voor de internationale speculatieve kunsten in de lage landen zodanig dat hij besloot om dit magazine op te richten.

Zijn echte obsessie met het genre begon met de overgelijkbare werken van Ursula K. Le Guin, en zijn hart bleef daar voor eeuwig. Andere favoriete auteurs zijn o.a. Patricia A. McKillip, Mary Soon Lee, John Wiswell, Robert Silverberg en Italo Calvino. Je kan hem vinden op Twitter @GoranLowie, waar hij vooral in het Engels tweet over vanalles en nog wat, maar vooral eigenlijk dingen die niet het tweeten waard zijn.

Be First to Comment

    Een reactie achterlaten

    Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *

    Speculatief Magazine © 2022