Internet przedmiotów: inteligentna planeta połączona w jedną sieć

Czy sztuczna inteligencja może być stronnicza?

Eksperci uważają, że jeśli komputer otrzymuje nieobiektywne dane, sztuczna inteligencja będzie podejmować decyzje pod wpływem uprzedzeń.

Sztuczna inteligencja (SI) jest szybsza i sprawniejsza od ludzkiego mózgu, ale nie poradziła sobie jeszcze z tendencyjnością. To prawda – komputery mogą być równie stronnicze co ludzie. Tendencyjny kod może prowadzić do niezamierzonych konsekwencji, takich jak niewłaściwe stereotypy i profilowanie rasowe. 

Program komputerowy jest tylko tak dobry jak dostarczane mu informacje – twierdzi Andy Hickl, dyrektor ds. produktów w Saffron Cognitive Solutions Group.

„Stronniczość jest wpisana w decyzje sztucznej inteligencji” – mówi. Może to wynikać z założeń przyjętych przy projektowaniu algorytmów mających naśladować ludzką ocenę lub założeń czynionych przez maszyny przy uczeniu się z danych.

„Jeśli maszyna ma dostęp do informacji o tym, jak zachowuje się część ludzi, i zerową wiedzę o tym, jak mówi, działa lub zachowuje się reszta świata, to domyślnie wprowadzamy tendencyjność do wyników działania technologii opartej na sztucznej inteligencji” – stwierdził Hickl.

 

Stereotypy

Jeden przykład to używanie „wektorów właściwościowych” na potrzeby analizy CV. Technika ta wykorzystuje skojarzenia słów, aby uczyć komputery, jak wyłaniać potencjalnych kandydatów do zatrudnienia.

Jeśli istnieje możliwość stronniczości, systemy sztucznej inteligencji są tak zaprogramowane, aby poprosić człowieka o ocenę wyników.

Badacze z Cornell University stwierdzili, że niektóre powiązania są rozsądne, jak np. „kobieta” i „królowa”. Inne powiązania wprowadzały tendencyjność, np. „kobieta” i „recepcja”. Spowodowało to zwiększenie liczby CV, które zostały rozpatrzone tylko ze względu na stereotypowe role.

Takie zachowanie sztucznej inteligencji może powodować znacznie większe problemy niż te dotyczące płci czy wieku.

W badaniu przeprowadzonym w 2016 roku przez organizację ProPublica przeanalizowano ocenę ryzyka ponad 7000 osób aresztowanych w latach 2013–2014 w hrabstwie Broward na Florydzie. Oceny dokonało narzędzie sztucznej inteligencji opracowane przez Northpointe, używane przez wiele amerykańskich sądów.

Badanie wykazało, że 80% osób, które według narzędzia miały w kolejnych dwóch latach dokonać przestępstwa z użyciem przemocy, nie popełniło takiego czynu.

W przewidywania narzędzia wkradło się znaczące uprzedzenie rasowe. W czym tkwił problem? Sztuczna inteligencja wskazała, że oskarżeni Afroamerykanie będą popełniać kolejne przestępstwa dwa razy częściej niż ci rasy białej. Było to całkowicie błędne.

Aby poradzić sobie z tym problemem w systemach sztucznej inteligencji, Hickl i jego zespół wymyślili sposób, w jaki platforma sztucznej inteligencji Saffron analizuje dane i uzasadnia wnioski. Jeśli wystąpi ryzyko stronniczości lub błędu, system zaleca zaangażowanie człowieka w analizę wyników.

 

Wadliwe dane

Zrozumienie, dlaczego stronniczość ma miejsce, jest kluczem do jej wyeliminowania. Niewłaściwe strategie pobierania próbek są największymi winowajcami, które prowadzą do uczenia maszynowego na wypaczonych danych.

Lepszy dostęp do smartfonów w bogatych dzielnicach doprowadził do tendencyjnego zgłaszania dziur drogowych.

W Bostonie użyto technologii opartej na sztucznej inteligencji, aby analizować dane z projektu Street Bump, który pozwalał użytkownikom smartfonów zgłaszać dziury w drogach. Na podstawie obecnego stanu dróg władze miasta chciały dowiedzieć się, gdzie najprawdopodobniej pojawią się następne dziury.

Prognozy były zaskakujące – najwięcej uszkodzeń miało pojawić się w dzielnicach średnio i bardzo zamożnych. Po dokładniejszej analizie danych wyłonił się zgoła inny obraz: ulice w tych dzielnicach nie były bardziej uszkodzone – mieszkańcy częściej zgłaszali dziury drogowe, ponieważ częściej używali smartfonów.

Władze Bostonu znalazły wreszcie idealne rozwiązanie – informacje zbierały śmieciarki, które docierały do wszystkich obszarów miasta. Kiedy maszyny dysponują tylko częścią informacji niezbędnych do przyjęcia właściwych założeń, wyniki zawsze będą tendencyjne – mówi Hickl.

 

Analiza i kwestionowanie wyników

Jak więc można usunąć stronniczość z technologii opartej na sztucznej inteligencji? Hickl twierdzi, że kluczowe jest umożliwienie narzędziom działania na wzór człowieka – analizę założeń i żądanie dalszych dowodów. Dzięki możliwości analizy dużych zbiorów danych w czasie rzeczywistym pozbawiona uprzedzeń sztuczna inteligencja może mieć wpływ na to, jak żyjemy, pracujemy i odpoczywamy.

„Sztuczna inteligencja udzieli nam wskazówek i informacji zwrotnych, dzięki którym będziemy mogli wykorzystać nasz pełen potencjał” – stwierdził Hickl.

Share This Article

Read Full Story