Az önvezető autókat sem kerüli el a rasszizmus

2019. március 11. hétfő, 11:00 • önvezető autó, mesterséges intelligencia, gépi tanulás
Egy friss kutatás arról rántotta le a leplet, hogy az önvezető járgányok sokkal gyorsabban ismerik fel a világos bőrű gyalogosokat, mint a sötétebb árnyalattal rendelkezőkét. De vajon tényleg beszélhetünk szándékos bőrszín-preferenciáról?

Twitter megosztás
Google+ megosztás
Cikk küldése e-mailben
Cikk nyomtatása

Aligha. Megvádolni egy robotot a direkt rasszizmussal nagy blődség, ugyanakkor a jelenség felbukkanása számos etikai kérdést vet fel, ami az önvezető autók forradalma előtt nem árt, ha tisztázódik.

Emberi előítéletek algoritmusba ágyazva

A Georgia Institute of Technology által végzett kutatás eredményét az Arxiv felületén publikálták, ahol alapos magyarázattal szolgáltak a megbotránkoztató eseményre.

Talán sokaknak ismeretlenül cseng Alexandria Ocasio-Cortez neve, aki januárban vívta ki az internet népének haragját azzal a kijelentéssel, hogy a robotoknak igenis vannak előítéleteik. A sokat vitatott mondat akárhogy is nézzük, helytálló.

Az algoritmusokat emberek készítik, és ezek az algoritmusok még mindig az alapvető emberi feltételezésekhez vannak kötve. A gépi tanulás során az algoritmusok az emberi tudásból származó mintázatok millióit integrálják magukba. A mintázatok részét pedig sztereotípiák, előítéletek is tarkítják, így ezek is „átörökítésre” kerülnek. A mesterséges intelligencia a milliónyi mintázat komplex átlátásával képes ugyan valamennyire előítéletmentesen dönteni, de a legáltalánosabb prioritásokat csak az emberi döntésekből, feltételezésekből tudja megtanulni. Így visszaérkeztünk a kiindulóponthoz.

Ugyanakkor egy robot nem lehet rasszista. Viszont az algoritmusába táplált tudást adó embertömeg igen.

Mi alapján preferál az önvezető autó?

Nem is feltétlenül a preferenciáról van szó, hanem arról, hogy az önvezető autók nehezebben ismerik fel, érzékelik a sötétebb bőrszínt. A kutatók szerint számos korábbi gépi tanuláson alapuló algoritmus, és a „látásért” felelős kamerarendszerek esetében tetten érhető volt az, hogy az afroamerikai demográfiai csoportoknál magasabb hibaarányokat mutatnak, mint mások esetében.

A kutatók ezt bizonyítva nagy mennyiségű fényképet gyűjtöttek és tápláltak be nyolc elértő arcfelismerő rendszerbe. A fényképeken különböző bőrszínű gyalogosok voltak láthatók. A bőrszín tónusainak osztályzását a Fitzpatrick skála alapján végezték, hogy teljes képet kapjanak. A csapat ezután elemezte, hogy a gépi tanuláson alapló rendszerek milyen gyakorisággal és pontossággal azonosították az emberek jelenlétét, bőszíntől függetlenül.

Átlagosan azt találták, hogy a rendszerek 5 százalékkal voltak kevésbé pontosak a sötétebb bőrszínnel rendelkező emberek észlelésekor. Hogyha figyelembe vették a napszakot és a látási viszonyokat, a helyzet akkor sem változott.

Rasszista szappanadagoló, ázsiaiakat megfedő arcfelismerő

Bizonyos arcfelismerő technológiák nem ismerik fel a fehértől eltérő bőrszínt, ezért az ázsiai származású embereket mindig arra figyelmezteti, hogy ne pislogjanak. De léteznek olyan szappanadagolók is, amelyek nem képesek azonosítani a fekete bőrszínt, így nem reagálnak megfelelően.

Ugyanakkor nem csak az arcfelismerő rendszerek „elfogultak”. Például a hangfelismerő rendszereknek komoly problémát okoz detektálni a női hangot, míg a férfiakét másodpercek alatt azonosítja.Aligha. Megvádolni egy robotot a direkt rasszizmussal nagy blődség, ugyanakkor a jelenség felbukkanása számos etikai kérdést vet fel, ami az önvezető autók forradalma előtt nem árt, ha tisztázódik.

Emberi előítéletek algoritmusba ágyazva

A Georgia Institute of Technology által végzett kutatás eredményét az Arxiv felületén publikálták, ahol alapos magyarázattal szolgáltak a megbotránkoztató eseményre.

Talán sokaknak ismeretlenül cseng Alexandria Ocasio-Cortez neve, aki januárban vívta ki az internet népének haragját azzal a kijelentéssel, hogy a robotoknak igenis vannak előítéleteik. A sokat vitatott mondat akárhogy is nézzük, helytálló.

Az algoritmusokat emberek készítik, és ezek az algoritmusok még mindig az alapvető emberi feltételezésekhez vannak kötve. A gépi tanulás során az algoritmusok az emberi tudásból származó mintázatok millióit integrálják magukba. A mintázatok részét pedig sztereotípiák, előítéletek is tarkítják, így ezek is „átörökítésre” kerülnek. A mesterséges intelligencia a milliónyi mintázat komplex átlátásával képes ugyan valamennyire előítéletmentesen dönteni, de a legáltalánosabb prioritásokat csak az emberi döntésekből, feltételezésekből tudja megtanulni. Így visszaérkeztünk a kiindulóponthoz.

Ugyanakkor egy robot nem lehet rasszista. Viszont az algoritmusába táplált tudást adó embertömeg igen.

Mi alapján preferál az önvezető autó?

Nem is feltétlenül a preferenciáról van szó, hanem arról, hogy az önvezető autók nehezebben ismerik fel, érzékelik a sötétebb bőrszínt. A kutatók szerint számos korábbi gépi tanuláson alapuló algoritmus, és a „látásért” felelős kamerarendszerek esetében tetten érhető volt az, hogy az afroamerikai demográfiai csoportoknál magasabb hibaarányokat mutatnak, mint mások esetében.

A kutatók ezt bizonyítva nagy mennyiségű fényképet gyűjtöttek és tápláltak be nyolc elértő arcfelismerő rendszerbe. A fényképeken különböző bőrszínű gyalogosok voltak láthatók. A bőrszín tónusainak osztályzását a Fitzpatrick skála alapján végezték, hogy teljes képet kapjanak. A csapat ezután elemezte, hogy a gépi tanuláson alapló rendszerek milyen gyakorisággal és pontossággal azonosították az emberek jelenlétét, bőszíntől függetlenül.

Átlagosan azt találták, hogy a rendszerek 5 százalékkal voltak kevésbé pontosak a sötétebb bőrszínnel rendelkező emberek észlelésekor. Hogyha figyelembe vették a napszakot és a látási viszonyokat, a helyzet akkor sem változott.

Rasszista szappanadagoló, ázsiaiakat megfedő arcfelismerő

Bizonyos arcfelismerő technológiák nem ismerik fel a fehértől eltérő bőrszínt, ezért az ázsiai származású embereket mindig arra figyelmezteti, hogy ne pislogjanak. De léteznek olyan szappanadagolók is, amelyek nem képesek azonosítani a fekete bőrszínt, így nem reagálnak megfelelően.

Ugyanakkor nem csak az arcfelismerő rendszerek „elfogultak”. Például a hangfelismerő rendszereknek komoly problémát okoz detektálni a női hangot, míg a férfiakét másodpercek alatt azonosítja.