Sinds het internet de racistische en genocidale racistische organisatie van Microsoft werd en Microsoft dwong om de chatbot binnen 24 uur te sluiten, hebben we geweten hoe vatbaar voor kunstmatige intelligentie (AI) het kwaad kan worden.

Om te bestuderen hoe AI kan worden beschadigd door vooringenomen gegevens, besloot het Massachusetts Institute of Technology (MIT) om zijn AI opzettelijk te veranderen in een psychopaat genaamd Norman - een verwijzing naar de schurk in Alfred Hitchcock's Psycho.

Het MIT-team trok afbeeldingen en bijschriften van een beruchte subreddit gewijd aan foto's van dood en geweld, en integreerde de bijschriften vervolgens in de gegevens over het beschrijven van objecten.

Toen het team vervolgens Norman wat Rorschach-inkblots gaf om te analyseren, vergeleken met Norman's antwoorden “standaard image captioning neuraal netwerk”-waren ongelooflijk alarmerend.

Afbeelding 1 van 3

Afbeelding 2 van 3

Afbeelding 3 van 3

Heldere bloemen werden de splatter van een geweerschot slachtoffer. Waar de controle AI een open paraplu interpreteerde, zag Norman een vrouw schreeuwen van verdriet terwijl haar man stierf.

De morbide aard van de veronderstellingen van de AI maakte het blind voor het overwegen van andere mogelijkheden naast moord en pijn.

Bescherming van de jonge geesten van onze AI-kinderen

Natuurlijk, met de donkerste hoek van Reddit als enige dataset voor het interpreteren van de inktvlekken, was Norman voorbestemd om monsterlijk te worden, vooral vergeleken met een AI die werd blootgesteld aan een gecontroleerde beeldverzameling.

Facebook's beeldherkenning AI gebruikt Instagram-ondertitels om objecten te interpreteren

Maar het extreme voorbeeld van MIT kan duiden op hoe een AI zijn interpretatiecriteria zou kunnen beschadigen, afhankelijk van waar het gegevens van haalt.

AI voor beeld- of gezichtsherkenning wordt steeds meer gebruikt door technologiebedrijven en verschillende organisaties. Facebook maakt bijvoorbeeld gebruik van Instagram-ondertitels om zijn AI te leren hoe afbeeldingen moeten worden geïnterpreteerd.

Als een deel van Instagram-gebruikers racistische leugens of seksistische taal begon te gebruiken om hun foto's te beschrijven, dan kon de AI van Facebook deze vooroordelen internaliseren.

De makers van Norman nodigden mensen uit om hun eigen interpretaties van de inkblots in een Google-document te geven, en “help Norman zichzelf te repareren”.

Hun onderzoek zou toekomstige AI-makers kunnen helpen bepalen hoe ze een balans kunnen vinden tussen mogelijk kwaadaardige databronnen en ervoor moeten zorgen dat hun AI-creaties zo onaangetast en onpartijdig mogelijk blijven.

  • Bestuurders zonder bestuurder gebruiken AI voor autonome bediening