i2D
Image default
Electronica en Computers

Robots en ethische beslissingen: bezoek dit museum in Amsterdam

Robots en computers zijn vaak ontworpen om autonoom te handelen, dat wil zeggen zonder menselijke tussenkomst. Is het mogelijk voor een autonome machine om morele oordelen te vellen die in overeenstemming zijn met het menselijk oordeel?

Deze vraag heeft aanleiding gegeven tot het vraagstuk van de ethiek en de moraal van machines. Kan men in de praktijk een robot of een computer programmeren om ethisch te handelen? Kan een machine worden ontworpen om moreel te handelen? Bezoek dit robot museum in Amsterdam.

Autonome machines

Isaac Asimovs beroemde fundamentele regels van de Robotica zijn bedoeld om autonome machines ethisch gedrag op te leggen. Vraagstukken over ethisch gedrag komen voor in films zoals de film Blade Runner uit 1982. Wanneer de replicant Roy Batty de keuze krijgt om zijn vijand, de menselijke detective Rick Deckard, te laten sterven, kiest Batty ervoor om hem te redden.

In een recent artikel, gepubliceerd in het International Journal of Reasoning-based Intelligent Systems, wordt een methode beschreven waarmee computers prospectief vooruit kunnen kijken naar de gevolgen van hypothetische morele oordelen.

Het artikel, Modelling Morality with Prospective Logic, is geschreven door Luís Moniz Pereira van de Universidade Nova de Lisboa, in Portugal en Ari Saptawijaya van de Universitas Indonesia. De auteurs verklaren dat moraliteit niet langer het exclusieve domein is van menselijke filosofen.

Een schoonmaakrobot die dingen breekt

In een artikel werd onlangs onderzocht hoe kunstmatige intelligentie op onverwachte manieren de fout in kan gaan. Wat gebeurt er bijvoorbeeld als een robot, wiens taak het is om rommel op te ruimen, besluit om een vaas om te gooien in plaats van er omheen te lopen, omdat hij dan sneller kan schoonmaken?

Maar het is niet de fout van de robot

Robots hebben het niet altijd mis. In één geval werd mensen gevraagd de etniciteit van een groep Aziatische gezichten te raden, en specifiek om het verschil te zien tussen Chinese, Japanse en Koreaanse gezichten. Ze hadden het ongeveer 39% van de tijd goed. De robot deed dat in 75% van de gevallen.

Als het fout gaat, is één verklaring het feit dat algoritmen, de computer codering die de besluitvorming aanstuurt, door mensen zijn geschreven, en dus onderhevig zijn aan alle inherente vooroordelen die wij hebben. Een andere reden, die in het geval van de schoonheidswedstrijd werd aangevoerd, is dat een algoritme alleen kan werken met de gegevens die het heeft. In dit geval had het meer witte gezichten om naar te kijken dan andere en baseerde het zijn resultaten daarop.

Terwijl onderzoekers blijven zoeken naar manieren om kunstmatige intelligentie zo veilig mogelijk te maken, werken ze ook aan een noodknop, zodat in het ergste geval een mens het kan overnemen. Bekijk dit technologie museum in Amsterdam.

http://jetbrainstechlab.com