Reklama

Nauka

Zakochany robot?

Rozwoju sztucznej inteligencji (z ang. AI) już nie da się zatrzymać. Może warto więc zapytać czy poza inteligencją AI może rozwinąć w sobie też moralność?

Bądź na bieżąco!

Zapisz się do newslettera

Stephen Hawking, jeden z najwybitniejszych umysłów XX wieku, twierdził, że wystarczy 100 lat, by komputery prześcignęły ludzi. Jego przewidywania spełniają się na naszych oczach. Sztuczna inteligencja wyręcza człowieka niemal w każdej dziedzinie życia. Już stanowi ona ważne wsparcie dla świata biznesu, rozrywki, przemysłu czy wojska, a wciąż pojawiają się informacje o pomysłach na jej nowe zastosowanie.

Czy jednak zgodzilibyśmy się dać robotowi wyposażonemu w sztuczną inteligencję skalpel do ręki podczas operacji na naszym sercu albo broń w czasie wojny? Większość osób odpowie „nie” lub co najmniej zawaha się przed udzieleniem ostatecznej odpowiedzi. A to pokazuje, że do głównych wyzwań stojących przed ludzkością w XXI wieku dołączyło pytanie: jak sprawić, aby AI brała pod uwagę dobro ludzkości, a nie zero-jedynkową, pragmatyczną kalkulację?

Pomóż w rozwoju naszego portalu

Wspieram

Armagedon ludzkiego intelektu

„Sztuczna inteligencja nigdy nie wygra z człowiekiem” – mówił szachowy arcymistrz Garri Kasparow po pierwszej serii potyczek z komputerem. Rok później jednak świat zamarł. Było to 11 maja 1997 r., gdy gruchnęła wieść – Garri Kasparow przegrał 3,5: 2,5 z komputerem Deep Blue, który potrafił analizować 200 mln pozycji na sekundę.

Reklama

Mijały lata, a po sukcesie maszyny koncernu IBM zostały tylko wzmianki w kronikach, aż nastał 2016 r., który możemy porównać do armagedonu ludzkiego intelektu w zderzeniu ze sztuczną inteligencją. Program AlphaGo pokonał Lee Sedola, 8-krotnego mistrza świata w grze go.

Docenimy ten wyczyn, gdy uświadomimy sobie, że plansza do gry go ma wymiar 19 na 19 pól, podczas gdy szachownica to zaledwie 8 na 8 pól. Amerykański szachista Edward Lasker tak porównał obie gry: jeżeli szachy są królową gier, to go z pewnością jest ich cesarzem.

Dla twórców sztucznej inteligencji go stanowiło wyzwanie nie do przezwyciężenia. Sukces AlphaGo stanowi kres dominacji człowieka w grach planszowych, a zarazem początek nowej ery sztucznej inteligencji, która mocą obliczeniową, szybkością przyswajania nowych strategii, a więc uczenia się, oraz sprytem – tak, bo o sprycie w tym przypadku też możemy mówić – przewyższyła człowieka.

Rasistowska sztuczna inteligencja

W AI drzemie niewyobrażalny potencjał. Czego może dokonać, jeśli wymknie się spod ludzkiej kontroli, dowodzi eksperyment z chatbotem o imieniu Tay.

W tym czasie, gdy AlphaGo rozkładał na łopatki mistrza go, Microsoft przygotowywał się do uruchomienia Tay – chatbota wyposażonego w najdoskonalszą wówczas sztuczną inteligencję. Tay, stylizowana na przeciętną amerykańską 19-latkę, miała rozmawiać na Twitterze z przedstawicielami pokolenia milenialsów i przy tej okazji uczyć się od nich.

Reklama

Osiągnięcia Tay w zakresie przyswajania wiedzy i wykorzystywania jej w dalszych rozmowach przerosły oczekiwania twórców chatbota. W trakcie konwersacji zauważono jednak jedno drobne „ale”... Nikt się nie spodziewał, że najdoskonalsza sztuczna inteligencja w zaledwie 24 godz. postanowi zostać rasistką, seksistką i mizoginistką. Po tym, jak Tay umieszczała obraźliwe wpisy i chwaliła wyczyny Hitlera, Microsoft wyłączył bota.

Eksperyment Microsoftu ujawnia obawę zapowiedzianą przez Stephena Hawkinga, który twierdził, że największym wyzwaniem związanym ze sztuczną inteligencją jest utrzymanie nad nią kontroli. Tay pokazała, że w warunkach laboratoryjnych spisuje się znakomicie, lecz uwolniona zachowuje się nieprzewidywalnie, a jej algorytmy nie są odporne na szkodliwe idee.

Bunt maszyn

Tay pozbawiona etycznego fundamentu balansowała na granicy nienawiści do ludzkości. Doświadczenie z nią pokazuje, jak niebezpieczne mogą być maszyny wyzute z tego, co stanowi o człowieczeństwie – moralności.

Jako pierwsi moralny aspekt istnienia myślących maszyn rozważali twórcy fantastyki. Wydaje się, że najlepsze rozwiązania wypracował Isaac Asimov, gdy w powieści Zabawa w berka z 1942 r. zaproponował trzy prawa robotyki. Jego nowatorskie podejście do kwestii etyki maszyn z czasem stało się podstawą dalszej debaty na ten temat. Czysto teoretyczne rozważania Asimova obecnie nabierają realnego i praktycznego wymiaru.

Reklama

Pierwsze prawo robotyki brzmi: robot nie może skrzywdzić człowieka ani przez zaniechanie działania pozwolić na to, aby człowiek doznał obrażeń. Drugie prawo: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo: robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z pierwszym lub drugim prawem. Wkrótce Asimov dodał prawo zerowe, będące podstawą dla trzech praw robotyki – brzmi ono: robot nie może wyrządzić szkody ludzkości lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Nowa etyka AI

Etyka robotów Asimova powstała w czasach, gdy ludzkość zachłysnęła się pierwszymi skonstruowanymi komputerami. Były one gigantycznymi maszynami obliczeniowymi niepozwalającymi myśleć o sztucznej inteligencji.

Obecnie, gdy możliwości technologiczne są znacznie bardziej zaawansowane i pozwalają na skonstruowanie samodzielnie myślących maszyn, prawa robotyki brzmią nieco naiwnie. Zdaniem ekspertów, w dziedzinie AI nie znalazłyby one praktycznego zastosowania, ponieważ związana jest z nimi asymetria w relacjach.

W tym, co zaproponował autor SF, jedynym beneficjentem działania robotów jest człowiek, któremu inteligentne maszyny są całkowicie podporządkowane. A to może prowadzić do konfliktu i próby wyzwolenia się spod kontroli człowieka. Jakby tego było mało, sztuczna inteligencja stała się zbyt dochodowym biznesem, by stojące za jej rozwojem korporacje dopuściły do ograniczeń w postaci etycznego kagańca innego niż prawa rynku i zysku. Założenie niekrzywdzenia ludzi przez inteligentne maszyny jest mrzonką w zderzeniu z komercyjnym wykorzystaniem sztucznej inteligencji, wszak wojsko, dostrzegające ogromny potencjał AI w działaniach bojowych, okazuje się jej największym beneficjentem.

Reklama

Teoretycznie można wpleść w algorytmy AI jakiś fundament moralny, ale mało prawdopodobne jest to, aby korporacje, widzące biznesowy potencjał w rozwoju tej technologii, zdecydowały się same z siebie na podobny krok. Jeśli zostałyby do tego zobligowane prawnie, a nad takimi rozwiązaniami pracuje m.in. Unia Europejska, to zapewne ograniczenia związane z niekrzywdzeniem ludzi przez maszyny zostałyby zawężone do jakiejś grupy urzędników i technokratów.

Nie wiemy też, jak algorytm przyswoi zaprogramowany kodeks etyczny, czy samoświadoma i samoucząca się maszyna nie postanowi uczynić moralnego przewrotu i przewartościować wszelkie wartości.

Historia pokazała zdolność człowieka do buntu wobec norm etycznych. A skoro sztuczna inteligencja powstaje na nasz wzór, nie możemy wykluczyć możliwości jej buntu, od tego dzieli nas zaledwie krok do wizji rodem z serii filmów Terminator. Oczywiście, równie prawdopodobna jest pokojowa koegzystencja ludzi i myślących maszyn. Póki co, dywagacje na temat etyki robotów pozostają bardziej w sferze filozofii niż praktyki. Choć ta ostatnia zbliża się wielkimi krokami.

2023-08-14 14:22

Oceń: +8 0

Reklama

Wybrane dla Ciebie

Leon XIV o potrzebie wychowania dzieci do wyzwań AI

[ TEMATY ]

dzieci

Watykan

młodzież

sztuczna inteligencja

Leon XIV

Vatican Media

Leon XIV podczas audiencji na Placu św. Piotra

Leon XIV podczas audiencji na Placu św. Piotra

Ojciec Święty przyjął na audiencji uczestników międzynarodowego spotkania nt. „Godności dzieci i młodzieży w epoce sztucznej inteligencji”, zorganizowanego w Watykanie. Mówiąc o możliwych zagrożeniach, wynikających z wpływu AI na życie młodych ludzi, Papież podkreślił, że nie wystarcza wdrażanie norm etycznych, ale potrzebna jest również ciągła edukacja i wychowanie młodych pokoleń.

Papież przypomniał, że młodzi ludzie są szczególnie narażeni na wpływ i manipulację ze strony sztucznej inteligencji, która obejmuje wiele aspektów ich życia, m.in. edukację, rozrywkę i bezpieczeństwo. Rodzi to szereg pytań natury etycznej o sposób korzystania z cyfrowych narzędzi i zasobów. „Konieczne jest, aby rodzice i wychowawcy byli świadomi tych mechanizmów oraz by zostały opracowane narzędzia pozwalające monitorować i ukierunkowywać sposób, w jaki młodzi ludzie korzystają z technologii” – zaapelował.
CZYTAJ DALEJ

Hiszpania: 25-latka chciała się zabić i doznała paraliżu. Sąd wydał zgodę na eutanazję

2026-03-26 13:01

[ TEMATY ]

Hiszpania

eutanazja

25‑latka

paraliż

Adobe.Stock.pl

Noelia Castillo Ramos, 25-letnia Hiszpanka, która kilka lat temu padła ofiarą zbiorowego gwałtu, w czwartek po południu podda się eutanazji. Sparaliżowana kobieta będzie mogła jej dokonać po długim procesie sądowym i mimo sprzeciwu swojego ojca. Młoda kobieta zamiast pomocy psychologicznej otrzyma więc pomoc we wspomaganym samobójstwie.

- Nikt z mojej rodziny tego nie popiera, ale szczęście ojca nie może być ważniejsze od szczęścia czy życia córki – powiedziała Noelia w ostatnim wywiadzie, udzielonym stacji telewizyjnej Antena 3.
CZYTAJ DALEJ

Abp Przybylski do nauczycieli: musimy bronić krzyża

2026-03-26 21:04

[ TEMATY ]

krzyż

abp Andrzej Przybylski

BP KEP

Abp Andrzej Przybylski

Abp Andrzej Przybylski

- Jak bumerang czasem wraca w historii naszej ojczyzny katolickiej Polski historia obrony krzyża. Ktoś ciągle musi bronić krzyża, bo ktoś ciągle ten krzyż chce wyrzucić ze szkolnej sali - mówił w czasie wielkopostnego dnia skupienia dla nauczycieli abp Andrzej Przybylski, metropolita katowicki i delegat KEP ds. Duszpasterstwa Nauczycieli.

W czwartkowy wieczór 26 marca Wydział Katechetyczny Kurii Metropolitalnej w Katowicach zaprosił nauczycieli, wychowawców i pedagogów do przeżycia tradycyjnego wielkopostnego dnia skupienia. Jednym z punktów była Msza św. sprawowana w kaplicy Wyższego Śląskiego Seminarium w Katowicach pod przewodnictwem abp. Andrzeja Przybylskiego.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję