Czy sztuczna inteligencja może być stronnicza?

Categories: TechnologiaTechnology

Co sprawia, że algorytm może być, podobnie jak człowiek, stronniczy lub uprzedzony? Czy może podejmować decyzje, nie będąc obiektywnym? Jednym z wyzwań związanych z rozwojem sztucznej inteligencji jest zadbanie o jej bezstronność. Okazuje się to szczególnie ważne w sektorach, w których podejmowanie aktywności musi być oparte na faktach i obiektywnych przesłankach.


 

Bezstronna sztuczna inteligencja

Rozwój sztucznej inteligencji jest bezpośrednio związany z naszymi dążeniami do perfekcji i nieomylności. Stulecia historii cywilizacji nauczyły nas, że nie ma ludzi doskonałych i wolnych od popełniania błędów. Nawet najlepszy specjalista w swojej dziedzinie, mający lata doświadczenia zawodowego i bogatą wiedzę, może czasami podjąć niekoniecznie właściwą decyzję. W algorytmach tymczasem upatrujemy rozwiązania, licząc, że będą w stanie zawsze podejmować właściwe wybory. By jednak było to możliwe, SI musi być bezstronna i wolna od jakichkolwiek uprzedzeń. To obecnie jedno z największych wyzwań związanych z rozwojem i upowszechnianiem technologii w różnych branżach.

Wbrew pozorom całkiem łatwo jest sprawić, by algorytm mający działać bezemocjonalnie, operując jedynie na faktach, zaczął zachowywać się podobnie jak jego ludzki odpowiednik w danej roli. By w swoich decyzjach faworyzował pewne rozwiązania czy osoby i miał określone preferencje. Na tym właśnie polega problem stronniczej SI, która na etapie uczenia i interpretacji otrzymywanych informacji, dokonuje subiektywnych obserwacji i na ich podstawie wypacza oryginalny cel, który miała osiągać. Machine learning, choć ma ogromny potencjał, nie jest też wolny od słabości – przewidywania nie wychodzą poza pewne ramy, które zostały wypracowane podczas uczenia na bazie dostarczonych do analiz danych. A te mogą być właśnie, czasami nawet niedostrzegalnie na pierwszy rzut oka, stronnicze, kreując fałszywy obraz rzeczywistości.

 

Stronnicza SI oznacza wyzwanie

Dlaczego kwestia stronniczej SI wymaga natychmiastowej reakcji i działania ze strony osób i organizacji rozwijających technologię? Konsekwencje ignorowania problemu łatwo dostrzec już dzisiaj, obserwując niewłaściwe, błędne i dyskryminujące działania ze strony algorytmów podczas przeprowadzanych testów czy symulacji.

Autonomiczny samochód, którego systemy nie rozpoznają osób na wózkach inwalidzkich.

System rozpoznawania twarzy, który identyfikuje wyłącznie użytkowników o określonym kolorze skóry.

Robot przemysłowy, który ignoruje informacje o wzroście ciśnienia w układzie chłodzącym.

Algorytm klasyfikujący pacjentów, który dyskryminuje osoby z konkretnych grup społecznych czy przedstawicieli danej rasy.

System wyliczający składki ubezpieczeniowe, który z góry przyjmuje, że kobiety są gorszymi kierowcami i częściej powodują wypadki.

W wielu sektorach stronnicza SI stanowi wyzwanie, które sprawia, że proces upowszechniania rozwiązań automatyki przemysłowej czy technologii connected cars jest wydłużony i bardziej skomplikowany.

Powyższe przykłady dość obrazowo pokazują, jakie skutki może mieć bagatelizowanie tego tematu. W wielu przypadkach dopuszczenie do działania stronniczej SI nie jest efektem złej woli twórców czy następstwem ich lekceważącego stosunku do problemu. Sytuacja często wynika z trudności identyfikacji problemu – wymaga uprzednio sprecyzowania, jakiego rodzaju „uprzedzonego zachowania” ze strony sztucznej inteligencji szukamy, a następnie analizy większego zbioru danych z jej pracy. Projektanci i inżynierowie muszą więc, przy tworzeniu nowych algorytmów, uwzględniać już istniejące uprzedzenia oraz nieustannie testować systemy pod kątem potencjalnie nowych i wcześniej nieznanych, by zapobiec ich rozpowszechnianiu i upowszechnianiu.

 

Jak uczy się sztuczna inteligencja

Szybki rozwój takich technologii, jak machine learning czy deep learning, sprzyja zwiększaniu liczby zastosowań sztucznej inteligencji. Wszelkiego rodzaju maszyny przemysłowe i roboty osobiste, zmieniają i kształtują nasz współczesny świat. Algorytmy podejmujące decyzje znajdziemy w sektorach medycznym, automotive, u podstaw Industry 4.0 czy w szeroko rozumianej logistyce, w której rozwijane są choćby smart porty. Wszędzie tam pojawia się ryzyko, że dane udostępnione do nauki SI będą mogły zafałszować obraz rzeczywistości i doprowadzić do jej stronniczości w przyszłości. A to z kolei może skutkować sytuacjami, z którymi wdrażanie algorytmów miało pomóc walczyć, jak uprzedzenia wobec konkretnych grup pracowników czy ludzkie błędy popełniane podczas pracy, kontroli systemów czy nawet zwyczajnej jazdy samochodem.

Sztuczna inteligencja nie osiągnęła jeszcze poziomu, w którym może równie swobodnie jak ludzki mózg interpretować dane, rozumować i wyciągać wnioski. Nie radzi sobie równie dobrze z sytuacjami niespodziewanymi, które wymagają podejmowania nieszablonowych decyzji. W obliczu tych wyzwań, które stanowi stronnicza SI, trwają więc prace nad stworzeniem odpowiednich materiałów szkoleniowych dla systemów. Baz danych, które będą stanowić obiektywną reprezentację rzeczywistości, uwzględniającą wszystkie cechy świata, zachodzących w nim procesów i uczestniczących w nich ludzi. Celem prac jest opracowanie dla uczących się algorytmów idealnych celów i zminimalizowanie sytuacji, w których są one zastępowane przez niewłaściwe, nieobiektywne wyznaczniki.

 

Ku obiektywnej sztucznej inteligencji

Problem stronniczej SI przybiera na znaczeniu wobec szybkiego rozwoju technologii i coraz większej liczby zastosowań algorytmów w różnych branżach. Dążąc do większej automatyzacji i autonomiczności pojazdów, maszyn czy urządzeń, tworzymy algorytmy, które mają działać nieomylnie, skutecznie i obiektywnie. Oczekując kolejnych sukcesów we wdrażaniu technologii i zachwycając się przykładami jej zastosowań, musimy jednak wrócić do początku i zadbać o właściwe wzorce, na bazie których sztuczna inteligencja będzie mogła zostać zaprojektowana i osiągać oczekiwany poziom. W tym przypadku jesteśmy na etapie, kiedy potrzebny jest krok wstecz, by móc za chwilę zrobić dwa do przodu.

 

Rozwijaj sztuczną inteligencję w GlobalLogic

W GlobalLogic realizujemy zaawansowane projekty dla klientów z różnych branż, tworząc innowacyjne rozwiązania, z których wkrótce będą korzystać miliony osób na całym świecie. Z bliska obserwujemy, jak rozwijają się systemy embedded i sztuczna inteligencja. Chcesz połączyć pasję z pracą i rozwijać się zawodowo? Sprawdź, kogo szukamy w zakładce kariera i dołącz do naszych zespołów działających w różnych częściach kraju.

Author

Sztuczna inteligencja

Autor

GlobalLogic Poland

Zobacz artykuły

Popularni autorzy

Marcin Medyński

Marcin Medyński

Consultant

Patryk Siedlecki

Patryk Siedlecki

Software Engineer

Piotr Doskocz

Piotr Doskocz

Lead Software Engineer

Piotr Andrusiuk

Piotr Andrusiuk

Senior Project Manager

Monika Malucha

Monika Malucha

Senior Marketing Specialist

Inne kategorie na blogu:

  • URL copied!