Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



26.03.2019

Zabezpieczenie danych...

Kaspersky Password Manager
26.03.2019

Backup partycji i obrazów

Xopero 3.9.7
26.03.2019

Zarządzanie tożsamością

One Identity Authentication Services 4.2
25.03.2019

Automatyczne bezpieczeństwo

VMware Service-defined Firewall
25.03.2019

Dane organizacji pod kontrolą

Konica Minolta Workplace Hub
25.03.2019

Wygoda dla oczu

Philips 252B9
22.03.2019

Pożegnanie z systemem Windows...

System operacyjny Windows 7 wciąż cieszy się dużą popularnością wśród użytkowników...
22.03.2019

Segmentacja sieci

Fortinet FortiGate 3600E, 3400E, 600E i 400E
22.03.2019

Monitoring IP

TP-Link TL-SL1218MP

Mgr inż. etyki

Data publikacji: 20-12-2018 Autor: Michał Jaworski

Słyszałem, że pewien programista poproszony o rozmowę z klientem oświadczył, że nie po to studiował informatykę, by teraz rozmawiać z ludźmi. A tu psychologia i etyka pchają się do IT drzwiami i oknami!

 

Wykorzystanie sztucznej inteligencji będzie wymagało bowiem poznania, przeniesienia na język technologii, a wreszcie wdrożenia zasad etyki. Zapewne także będzie wymagało współpracy z psychologiem, gdyż końcowy produkt może wejść w interakcję z ludźmi. Ludzie zaś – kto nie czytał „Pułapek myślenia” Kahnemana, powinien nadrobić ten brak – myślą i podejmują decyzje zupełnie inaczej niż maszyny. Oczywiście wszystko powyższe nie będzie istotne tam, gdzie system predykcyjny na podstawie danych wejściowych i wcześniejszego uczenia będzie zajmował się prognozowaniem jakości wytłaczanego oleju, ale… jeśli będzie to system wspomagający lekarza? Lub przyznawania kredytu? Ustalania składki ubezpieczeniowej? Rekrutacji pracowników?

Pierwszą z brzegu zasadą niech będzie brak dyskryminacji i uprzedzeń, co powinno oznaczać, że odpowiedzi systemu nie ulegają stereotypom i nie tworzą odmiennych reguł, dyskryminując ze względu na wiek, płeć, rasę, imię lub nazwisko, adres zamieszkania itd. Wydaje się łatwe, ale wcale nie jest. Znany jest przykład systemów automatycznego tłumaczenia. Jeśli język nie zawsze precyzyjnie wskazuje rodzaj (tak jest np. w tureckim – „o bir doktor” może oznaczać „on jest lekarzem” lub „ona jest lekarką”), to w tłumaczeniach okazywało się, że lekarz zawsze był mężczyzną, a pielęgniarka kobietą. Siła stereotypu oraz statystycznie liczniejsze dane potwierdzające taki rozkład dawały wynik, który nie musiał być prawdziwy. Dla zachowania właściwej etycznej zasady program powinien mieć wątpliwości przy przedstawianiu wyników, a przygotowujący dane w procesie uczenia powinni to uwzględniać. Przykład z lekarzem i pielęgniarką (lekarką i pielęgniarzem) może być łatwy do wyłapania nawet bez szczególnego szkolenia, ale systemy mają także tendencję do wskazywania w zespołach rockowych mężczyzny jako gitarzysty, a kobiety jako wokalistki… Pomyślałbyś o tym? A zatem są potrzebne szkolenia o tym, jak przygotowywać dane, jak sprawdzać ich jakość i jak zapewnić właściwe działanie.

Oczywiście systemy automatycznej translacji mogą co najwyżej doprowadzić do ambarasu, który przy pewnej zręczności skończy się śmiechem i drwinami z AI. Ale co z systemami, które nie będą chciały przyznać kredytu Brajanom i Dżesikom, czyli osobom, których imiona mogą częściej pojawiać się w grupie osób słabiej wykształconych lub z takiej grupy pochodzących? Lub odrzucających Oksany i Rusłanów ze względu na rozpoznanie ich niepolskich korzeni? Lub niedopuszczających do dalszego procesu rekrutacji osób, których zdjęcia wskazywałyby na wiek ponad pięćdziesiąt lat?

Nie chodzi tylko o dobre chęci czy wytworzenie szczególnej wrażliwości u programistów. Zwłaszcza w to ostatnie trudno mi uwierzyć... Chodzi o przygotowanie procesu i panowanie nad procesem selekcji danych, na jakich będzie się uczył system. Chodzi o znajomość podstaw matematycznych, które mówią, jak zachować zgodność z rzeczywistością tego, co wprowadzamy do modelu danych – możemy tu przywołać choćby znajomość zasad próbkowania sygnału i częstotliwości Nyquista, a potem wiele kolejnych. Chodzi o przygotowanie narzędzi, które będą mogły człowiekowi podpowiedzieć, że coś się dzieje złego, i dać mu możliwość interwencji. Chodzi też wreszcie o porządny proces testowania i ostatecznego odbioru przed wdrożeniem produkcyjnym. Zasada etyczna ma być zapisana w procesie matematycznym, inżynierskim i biznesowym. Humaniści też muszą się przyłożyć, aby precyzyjnie opisać reguły i umieć zaszczepić je przedstawicielom nauk ścisłych.

Możemy mówić o wiarygodności tworzonych systemów, odporności na błędy lub ataki typu poisoning danych. O prywatności, jej sensie i ochronie. Dostępności dla tych, którym na świecie jest trudniej, bo szwankuje wzrok czy słuch. O konieczności wytłumaczenia odbiorcom, jak te systemy działają. A wreszcie dyskusji o odpowiedzialności, jaka ciąży na projektantach systemów AI. Wszystko w języku informatyków.

Podobno kiedyś zaprowadzono zawodową drużynę hokejową na zajęcia z baletu. Widzicie tę szyderę, słyszycie komentarze gości, których ceni się także za to, że szybko zrzucają rękawice i piorą przeciwnika po gębie? Trwały podobno tylko do momentu, w którym wyjaśniono, że ćwiczenia, jakim zostaną poddani, pozwolą im uniknąć wielu kontuzji. Że gibkość i zwinność są im równie potrzebne jak siła. Uwierzyli, spróbowali, podziałało. Dlaczego z AI miałoby być inaczej?

 


Michał Jaworski – autor jest członkiem Rady Polskiej Izby Informatyki i Telekomunikacji. Pracuje od ponad dwudziestu lat w polskim oddziale firmy Microsoft.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"