Człowiek i sztuczna inteligencja

Satya Nadella CEO Microsoftu na łamach magazynu Slate Future Tense przedstawia etyczne zagadnienia, związane z koegzystencją ludzi i sztucznej inteligencji. Komputery mogą wygrywać z nami w gry. Szachy, warcaby, go. Bez wątpienie są i będą on nas lepsze. Jednak rozpatrywanie tej kwestii w kategoriach dobry-zły nigdzie nie prowadzi. Autor zwraca uwagę na wartości, które stoją za ludźmi i instytucjami stojącymi za tworzeniem SI. Zauważa również, że w przyszłości obopólna współpraca przyniesie duże korzyści obydwu stronom. Jednak relacje te muszą opierać się na zaufaniu człowieka do technologii.

CEO Microsoftu rysuje podstawowe zagadnienia, odnoszące się do relacji człowieka i maszyn. Swoje twierdzenia opiera na prawach robotów Asimova.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem.
  3. Robot musi chronić sam siebie, jeśli tylko stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

W swoich rozważaniach zauważa dwustronne relacje w tej materii. W dużej mierze odnoszącej się do ludzi. Przyszłe pokolenia muszą wykazać się odpowiedzialnością wobec problemu sztucznej inteligencji. Wartościami, którymi muszą się kierować to: Empatia, ludzie muszą wykazać się większą wrażliwością i być nastawieni na współpracę, ponieważ jest ona trudna do „wkodowania” w maszyny. Edukacja, aby wprowadzić i utrzymać stan innowacji, który jest potrzeby do rozwoju SI, należy zwiększyć finansowanie badań i rozwoju. Zadanie to może być trudne, z powodu przewidywanej ilości urodzeń w przyszłości. Kreatywność, jest naszą unikalną i podstawową cechą, która nas wyróżnia. technologia powinna służyć jej rozwojowi, a nie być celem samym w sobie. Ostatnim i chyba najważniejszym jest przyjęcie pełnej odpowiedzialności za końcową działalność maszyn.

Z drugiej strony. Idąc tym tropem dalej. Ostatecznie twórcy sztucznej inteligencji będą odpowiedzialni za jej kształt i granice autonomiczności, więc jej obowiązków i cech charakterystycznych. Technologia, w której będzie zawierała się SI oraz inne maszyny, integrujące się z człowiekiem, powinny być transparentne i zrozumiałe dla przeciętnego człowieka. Poszanowanie prywatności. Nasze własne twory nie mogą wiedzieć więcej o ludziach, niż ludzie o maszynach. Etyka i projektowanie maszyn będą odgrywały tutaj kluczową rolę. Przemysł technologiczny nie może dyktować wartości, którymi kieruje się człowiek. Maszyny mogą maksymalizować efektywność biznesu, ale nie kosztem ludzkiej kultury. W przyszłości ważną kwestią będą nierówności społeczne spowodowane rozwojem maszyn i SI. Z jednej strony historia pokazuje, że rozwój technologiczny czynił pracowników bogatszymi, a nie biedniejszymi. Jednak tym razem zmiana może być tak ekstremalna, że przedsiębiorcy, aby zachować równowagę i stabilność społeczną będą musieli korzystać z maszyn, które uzupełniają, a nie zastępują pracowników. Swoistego rodzaju wentylem bezpieczeństwa jest założenie, że człowiek powinien mieć wpływ na kod i algorytmy sterujące SI, tak aby mógł naprawić ewentualne wyrządzone szkody spowodowane przez maszyny. Te intencjonalne i nieintencjonalne.

Nadella podejmuje bardzo trudny temat. Pokazuje złożoność problemu, o którym warto już dzisiaj rozmawiać. Jednak zastosowany punkt wyjścia posiada jednak jedną zasadniczą wadę. Zakłada symetrie między ludźmi i maszynami opartą na współpracy. W jego rozważaniach, w których rozwija prawa robotów Asimova brakuje zasadniczego spostrzeżenia. Relacje te nie będą w pełni partnerskie. Będą asymetryczne. Maszyny i sztuczna inteligencja, liczba mnoga została pominięta, występuje w roli zależnej od człowieka. Dobrze jednak, że pokazuje obowiązki ludzi wobec maszyn. Jest to krok naprzód. Mimo wszystko nadal traktuje inteligentne twory w sposób przedmiotowy. Nawet jeżeli stworzymy inteligentne maszyny podporządkowane prawom, które w nie wkodujemy będą one „zniewolone” przez narzucone zasady. Mimo posiadanej samoświadomości, będą opierały się na sztucznych prawach skonstruowanych przez człowieka. Brakuje tutaj wzajemnego poszanowania i pełnej autonomii. Czy rozwinięta inteligencja zaakceptuje te reguły? Czy możemy mówić o jakiejkolwiek etyce, którą miały by kierować się sztuczne inteligencje, które nie posiadają pełnej odpowiedzialności za swoje poczynania. W mocno ograniczonym aspekcie tak, ale tutaj uwidacznia się nierówność relacji ludzie – biologiczne maszyny z sztuczne inteligencje – nie biologiczne maszyny.

Trudno jest mówić o wartościach etycznych stworzonych maszyn, które będą podporządkowane biznesowi, którego nadrzędną wartością jest zysk. Odpowiedzialność społeczna w biznesie jest i długo jeszcze będzie sloganem brandingowym, niżeli rzeczywistym działaniem dla dobra ogółu. Mimo pewnych zastosowanych uproszczeń i założeń przedstawione rozważania są warte uwagi i z pewnością Pan Nadella zabiera ważny głos w dyskusji o etyce robotów i SI.

Źródło: slate.com