Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



24.05.2019

Konferencja IT Manager of...

W dniach 12–14 czerwca w Sopocie odbędzie się konferencja IT Manager of Tomorrow 2019. To...
24.05.2019

Ochrona sieci

Fortinet FortiOS 6.2
24.05.2019

Mniejsza złożoność

Rittal VX25 Ri4Power
24.05.2019

All-in-one NAS

QNAP TDS-16489U R2
24.05.2019

Układy SoC

AMD Ryzen Embedded R1000
23.05.2019

Wzmocniony model

Panasonic Toughbook FZ-N1
23.05.2019

Szybsze sieci

D-Link Smart Mesh Wi-Fi AC1900/AC2600/AC3000
23.05.2019

Curved 4K

Samsung LU32R590
14.05.2019

Bezpłatna konferencja OSEC...

Jako patron medialny serdecznie zapraszamy na bezpłatną konferencję OSEC Forum 2019, któa...

Mgr inż. etyki

Data publikacji: 20-12-2018 Autor: Michał Jaworski

Słyszałem, że pewien programista poproszony o rozmowę z klientem oświadczył, że nie po to studiował informatykę, by teraz rozmawiać z ludźmi. A tu psychologia i etyka pchają się do IT drzwiami i oknami!

 

Wykorzystanie sztucznej inteligencji będzie wymagało bowiem poznania, przeniesienia na język technologii, a wreszcie wdrożenia zasad etyki. Zapewne także będzie wymagało współpracy z psychologiem, gdyż końcowy produkt może wejść w interakcję z ludźmi. Ludzie zaś – kto nie czytał „Pułapek myślenia” Kahnemana, powinien nadrobić ten brak – myślą i podejmują decyzje zupełnie inaczej niż maszyny. Oczywiście wszystko powyższe nie będzie istotne tam, gdzie system predykcyjny na podstawie danych wejściowych i wcześniejszego uczenia będzie zajmował się prognozowaniem jakości wytłaczanego oleju, ale… jeśli będzie to system wspomagający lekarza? Lub przyznawania kredytu? Ustalania składki ubezpieczeniowej? Rekrutacji pracowników?

Pierwszą z brzegu zasadą niech będzie brak dyskryminacji i uprzedzeń, co powinno oznaczać, że odpowiedzi systemu nie ulegają stereotypom i nie tworzą odmiennych reguł, dyskryminując ze względu na wiek, płeć, rasę, imię lub nazwisko, adres zamieszkania itd. Wydaje się łatwe, ale wcale nie jest. Znany jest przykład systemów automatycznego tłumaczenia. Jeśli język nie zawsze precyzyjnie wskazuje rodzaj (tak jest np. w tureckim – „o bir doktor” może oznaczać „on jest lekarzem” lub „ona jest lekarką”), to w tłumaczeniach okazywało się, że lekarz zawsze był mężczyzną, a pielęgniarka kobietą. Siła stereotypu oraz statystycznie liczniejsze dane potwierdzające taki rozkład dawały wynik, który nie musiał być prawdziwy. Dla zachowania właściwej etycznej zasady program powinien mieć wątpliwości przy przedstawianiu wyników, a przygotowujący dane w procesie uczenia powinni to uwzględniać. Przykład z lekarzem i pielęgniarką (lekarką i pielęgniarzem) może być łatwy do wyłapania nawet bez szczególnego szkolenia, ale systemy mają także tendencję do wskazywania w zespołach rockowych mężczyzny jako gitarzysty, a kobiety jako wokalistki… Pomyślałbyś o tym? A zatem są potrzebne szkolenia o tym, jak przygotowywać dane, jak sprawdzać ich jakość i jak zapewnić właściwe działanie.

Oczywiście systemy automatycznej translacji mogą co najwyżej doprowadzić do ambarasu, który przy pewnej zręczności skończy się śmiechem i drwinami z AI. Ale co z systemami, które nie będą chciały przyznać kredytu Brajanom i Dżesikom, czyli osobom, których imiona mogą częściej pojawiać się w grupie osób słabiej wykształconych lub z takiej grupy pochodzących? Lub odrzucających Oksany i Rusłanów ze względu na rozpoznanie ich niepolskich korzeni? Lub niedopuszczających do dalszego procesu rekrutacji osób, których zdjęcia wskazywałyby na wiek ponad pięćdziesiąt lat?

Nie chodzi tylko o dobre chęci czy wytworzenie szczególnej wrażliwości u programistów. Zwłaszcza w to ostatnie trudno mi uwierzyć... Chodzi o przygotowanie procesu i panowanie nad procesem selekcji danych, na jakich będzie się uczył system. Chodzi o znajomość podstaw matematycznych, które mówią, jak zachować zgodność z rzeczywistością tego, co wprowadzamy do modelu danych – możemy tu przywołać choćby znajomość zasad próbkowania sygnału i częstotliwości Nyquista, a potem wiele kolejnych. Chodzi o przygotowanie narzędzi, które będą mogły człowiekowi podpowiedzieć, że coś się dzieje złego, i dać mu możliwość interwencji. Chodzi też wreszcie o porządny proces testowania i ostatecznego odbioru przed wdrożeniem produkcyjnym. Zasada etyczna ma być zapisana w procesie matematycznym, inżynierskim i biznesowym. Humaniści też muszą się przyłożyć, aby precyzyjnie opisać reguły i umieć zaszczepić je przedstawicielom nauk ścisłych.

Możemy mówić o wiarygodności tworzonych systemów, odporności na błędy lub ataki typu poisoning danych. O prywatności, jej sensie i ochronie. Dostępności dla tych, którym na świecie jest trudniej, bo szwankuje wzrok czy słuch. O konieczności wytłumaczenia odbiorcom, jak te systemy działają. A wreszcie dyskusji o odpowiedzialności, jaka ciąży na projektantach systemów AI. Wszystko w języku informatyków.

Podobno kiedyś zaprowadzono zawodową drużynę hokejową na zajęcia z baletu. Widzicie tę szyderę, słyszycie komentarze gości, których ceni się także za to, że szybko zrzucają rękawice i piorą przeciwnika po gębie? Trwały podobno tylko do momentu, w którym wyjaśniono, że ćwiczenia, jakim zostaną poddani, pozwolą im uniknąć wielu kontuzji. Że gibkość i zwinność są im równie potrzebne jak siła. Uwierzyli, spróbowali, podziałało. Dlaczego z AI miałoby być inaczej?

 


Michał Jaworski – autor jest członkiem Rady Polskiej Izby Informatyki i Telekomunikacji. Pracuje od ponad dwudziestu lat w polskim oddziale firmy Microsoft.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"