Nieświadome uprzedzenia sztucznej inteligencji
Chatboty zadomowiły się na dobre w naszym życiu codziennym – mamy z nimi kontakt w obsłudze klienta, umawiają nam wizyty u lekarza, rekomendują książki i filmy, a także znajdują nasze zaginione przesyłki. Aby mogły spełniać swoje zadanie, modele na których są oparte wymagają treningu na danych. Praca z danymi wiąże się z całą masą wyzwań – jednym z nich jest tzw. unconscious bias, czyli nieświadome uprzedzenia.
Narzędzia oparte o AI nie są wolne od tendencji stronniczych – uczą się wszak od danych, które otrzymują od swoich twórców. To prowadzi do dziedziczenia nieświadomych uprzedzeń, które są odzwierciedlane w zbiorach danych treningowych. Istnienie tego zjawiska potwierdza wiele badań przeprowadzanych na narzędziach opartych AI. Pokazuje to, że AI nie jest nieomylne – jest po prostu rozwinięciem ludzkiej natury i kultury.
Czym są nieświadome uprzedzenia? ?
Nieświadoma uprzedzenia (ang. Unconscious bias) to podświadome nastawienia i stereotypy przypisywane innym ludziom lub grupom. Mają one wpływ na nasze zachowanie i sposób prowadzenia interakcji z takimi osobami – wpływ tego typu tendencji na proces podejmowania decyzji jest dobrze udokumentowany.
Wielu badaczy podkreśla związek pomiędzy decyzjami podejmowanymi przez sędziów w oparciu o własne cechy osobiste. W podobny sposób pracodawcy wykazują preferencje wobec kandydatów na różne stanowiska – osoby o identycznych kwalifikacjach, ale nazwiskach wskazujących przynależność do konkretnych grup etnicznych lub płci zostają zapraszane na rozmowy w skrajnie różnych częstotliwościach.
W wielu przypadkach AI może zmniejszyć subiektywną interpretację danych przez ludzi. Algorytmy nauczania maszynowego uczą się brać pod uwagę tylko te zmienne, które poprawiają ich celność. Trzeba jednak zachować uwagę – istnieje mnóstwo dowodów potwierdzających, że modele AI mogą odzwierciedlać ludzkie i społeczne uprzedzenia na masową skalę.
Źródła unconscious bias w AI konwersacyjnym
Nieświadome uprzedzenia w AI mogą wywołać:
- Brak różnorodności w zbiorze danych
- Zła reprezentacja w danych
- Zbyt mało danych
- Wykorzystywanie zbiorów danych treningowych z zewnętrznych źródeł
- Brak poprawki na uprzedzenia
Największym źródłem problemu jest brak reprezentacji w danych. Chatboty AI uczą się jedynie z takich danych, jakie otrzymują od ludzi. Jeśli nasz zbiór treningowy ignoruje specyficzną grupę, akcent, lub mniejszość, wpłynie to na naszego bota. Natknie się on na trudności w rozumieniu pytań, znaczeń i motywacji. Jak możemy zapewnić dobrą reprezentację treści w naszym zbiorze danych treningowych? Oparcie się o dane historyczne i transkrypcje rozmów z działem obsługi klienta może nie wystarczyć – wciąż możemy natknąć się na brak reprezentacji pewnych grup.
Badacze z University of Massachusetts odkryli, że skuteczność kilku powszechnych algorytmów rozumienia języka naturalnego (ang. natural language understanding, NLU) jest dramatycznie niższa w przypadku wypowiedzi osób posługujących się “niestandardowymi” odmianami języka angielskiego. Dzieje się tak zwłaszcza w przypadku odmiany afroamerykańskiej, slangu, lub przy silnych akcentach.
Oczywistym jest więc, że wymagany jest nadzór jakości zbioru danych treningowych. Jest to niezwykle istotne dla sukcesu dowolnego chatbota – nieświadome uprzedzenialubiąsię zakradać przez źle skonfigurowane algorytmy i błędne dane.
Jeśli nie posiadasz wystarczająco danych do stworzenia zbioru treningowego, możesz zdecydować się na zakup danych. Pamiętaj jednak, że zewnętrzne zbiory danych również mogą zawierać uprzedzenia z których nie będziesz zdawać sobie sprawy. Istnieją dwa znane przykłady chatbotów które szybko zawiodły – właśnie przez złe dane treningowe.
Blender, chatbot Facebooka, był trenowany na danych z serwisu Reddit. Rezultat? Bardzo szybko nauczył się wulgarnego i obraźliwego języka. W 2016, chatbot Microsoftu, Tay, został zdjęty z internetu po zaledwie dobie, ponieważ zaczął tweetować rasistowskie komentarze. Co się stało? Tay był trenowany na niefiltrowanych rozmowach z Twittera – zwyczajnie powielił ludzkie zachowania.
Dużym ograniczeniem technologii AI jest to, że maszyny często “nie wiedzą czego nie wiedzą”. O ile AI jest doskonałym rozwiązaniem do interpretacji dużych ilości danych, nie ma gwarancji, że algorytm zrozumie wszystkie dane.
Błędy w działaniu chatbotów najczęściej są wynikami albo stronniczych danych, albo algorytmu który nie przewiduje danych nie wpisujących się w określony “standard”. Inżynierowie AI i projektanci chatbotów koniecznie muszą być świadomi tych limitacji; tylko w ten sposób będą w stanie zapobiec lub zmniejszyć prawdopodobieństwo błędów w trakcie tworzenia bota.
Konsekwencje nieświadomych uprzedzeń
Rezultatem końcowym uprzedzeń przekazanym botom jest po prostu mniejsza skuteczność. To może prowadzić do poważnych konsekwencji w różnych zastosowaniach AI. Dla przykładu, algorytmy rozpoznawania twarzy używanych przez wymiar prawa notorycznie mylą się w przypadku kobiet i osób o innym kolorze skóry niż biały. Powszechne korzystanie z takich algorytmów prowadzi tylko do umacniania uprzedzeń na tej podstawie w społeczeństwie.
To tylko jeden aspekt problemu – AI jest wdrażane na masową skalę w wielu strefach: programach rekrutacyjnych, służbie zdrowia, wymiarze prawnym itd.
Stronniczość przedstawiona w danych treningowych sprawia, że AI konwersacyjne staje się znacząco mniej skuteczne. Ma to bezpośredni (i negatywny!) wpływ na doświadczenia użytkownika danego chatbota. Jeśli Twój bot nie jest w stanie rozpoznać konkretnego akcentu, klienci posługujący się nim zaczną po prostu kontaktować się bezpośrednio z Twoim działem obsługi – nie ma przecież nic gorszego, niż obserwowanie jak twój wysiłek idzie na marne!
Jak zmniejszyć stronniczość w AI konwersacyjnym?
Przede wszystkim upewnij się, że zbiór danych, treści oraz użytkowników, na których oprzesz zbiór treningowy jest jak najbardziej różnorodny. Dopilnuj, aby zespół pracujący nad chatbotem składał się z osób z różnych środowisk – będa oni zwracać uwagę na swoje wzajemne uprzedzenia. Wdróż procesy mające na celu zmniejszenie stronniczości i uprzedzeń w całej organizacji – możesz wykorzystać do tego dodatkowe narzędzia testowe lub zatrudnić zewnętrzny zespół, który będzie przeprowadzać regularne audyty.
Niektórzy badacze zajmujący się AI rekomendują dokładne przyglądanie się własnym zachowaniom i uprzedzeniom jako dobry sposób na zapewnienie sprawiedliwego zachowania chatbotów. Jest to niestety czasochłonny i trudny proces.
Prowadzone są różnego rodzaju inicjatywy aby walczyć ze stronniczością w AI na masową skalę. Projekt Excavating AI ma na celu naprawę sieci neuronowej ImageNet poprzez zapewnienie jej bardziej różnorodnych danych. Organizacje takie jak AI4ALL organizują różnego rodzaju konferencje i inicjatywy mające na celu zapewnienie większej różnorodności w AI – nie mówimy tylko o danych, ale też o ludziach stojących za algorytmami. Duże firmy, takie jak Google, publikują wytyczne, które pomagają firmom uniknąć częstych pomyłek i uprzedzeń jakie mają miejsce przy wdrażaniu AI.
My również dokładamy swoją cegiełkę do tych wysiłków – jeśli myślisz o zainwestowaniu w chatbota, chętnie Ci pomożemy. Przeczytaj nasz artykuł o unikaniu częstych pomyłek w tworzeniu bota oraz nasz wyczerpujący przewodnik po chatbotach aby mieć pewność, że Twój projekt oparty jest o solidne fundamenty.