1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

Groźna sztuczna inteligencja

Fabian Schmidt1 sierpnia 2015

W rozmowie z Deutsche Welle prof. Bernhard Schölkopf wyjaśnia, dlaczego podpisał się pod listem otwartym organizacji "Future of Life Institute" ostrzegającym przed pracami nad bronią autonomiczną.

https://p.dw.com/p/1G8Pc
Bewaffneter Kampfroboter
Mały, amerykański robot bojowy "Talon Sword"Zdjęcie: picture-alliance/dpa

Deutsche Welle: Panie Profesorze, we wtorek (28.07.2015) na sympozjum w sprawie sztucznej inteligencji w Buenos Aires podpisał się pan pod listem otwartym organizacji "Future of Life Institute" ostrzegającym przed bronią autonomiczną. Dlaczego?

Bernhard Schölkopf: Zajmuję się uczeniem maszynowym, zwanym także uczeniem się maszyn albo systemami uczącymi się. Są one ważnym składnikiem badań nad sztuczną inteligencją (AI). Chodzi w nich o to, aby przy pomocy danych nauczyć systemy realizowania określonych zadań, na przykład rozpoznawania rzeczy, osób lub twarzy, co w zasadzie można wykorzystać także do celów militarnych. Kryją się w tym realne zagrożenia, dobrze opisane w tym liście otwartym. Kiedy go przeczytałem zrozumiałem, że też jestem w to wmieszany i postanowiłem go podpisać. Uważam, że trzeba mówić publicznie co dziś jest już możliwe po to, aby zainicjować szeroką dyskusję, w której nie będą uczestniczyć wyłącznie naukowcy i inżynierowie zajmujący się sztuczną inteligencją na co dzień.

Jak blisko jesteśmy już ziszczenia się wizji o autonomicznych robotach bojowych, które same zadecydują, czy mogą zabić człowieka?

Dyskusje, w których pojawia się kwestia sztucznej inteligencji, porównywalnej z inteligencją człowieka, trwają od dawna, ale moim zdaniem wciąż jesteśmy jeszcze bardzo dalecy od realizacji takiego celu. Roboty mogą jednak równie dobrze jak ludzie radzić sobie z realizacją pewnych określonych, ograniczonych celów, na co mamy dowody w postaci prowadzonych przez nas prac doświadczalnych. Mogą na przykład precyzyjnie rozpoznawać ludzkie twarze. Taki system zastosowano już na w takim portalu społecznościowym jak Facebook. Podobne systemy mogą wykonywać także pewne zadania militarne.

Deutschland Professor Bernhard Schölkopf
Bernhard SchölkopfZdjęcie: Max-Planck-Institut für biologische Kybernetik

Czy możliwe jest od strony technicznej nauczenie robota bojowego rozpoznawania umundurowania przeciwnika po to, aby w razie potrzeby mógł go wyeliminować?

W tej chwili o wiele łatwiej jest nam nauczyć robota rozpoznawania ludzkich twarzy niż skłonić go do biegania po schodach tak, żeby się nie potknął! W najbliższym czasie nie będziemy jednak dysponowali takimi maszynami bojowymi, jak roboty pokazane w filmach z serii "Terminator". Między innymi dlatego, że o wiele prościej i łatwiej jest wyposażyć małe śmigłowce lub drony w kamery sprzężone z systemem rozpoznawania ludzkich twarzy, które mogą być uzbrojone i otworzyć ogień do osoby, której twarz zakodowano w systemie ich pamięci jako twarz przeciwnika. Takie śmigłowce i drony mogą wejść na uzbrojenie w ciągu najbliższych dziesięciu lat i prawdopodobnie w tej chwili intensywnie się już nad nimi pracuje.

W istocie rzeczy już dziś mamy do czynienia z elementarną sztuczną inteligencją w takich systemach uzbrojenia jak miny lądowe czy urządzenia samostrzelne. Proszę zatem powiedzieć, gdzie zaczyna się "prawdziwa" sztuczna inteligencja?

Najczęstsza odpowiedź na to pytanie brzmi tak: elementami sztucznej inteligencji jest percepcja, czyli zdolność do odbierania bodźców wzrokowych, słuchowych i czuciowych, stanowiąca podstawę działań maszyny wyposażonej w ten rodzaj inteligencji; a gdzieś pośrodku mieści się obróbka odbieranych bodźców według pewnego wzoru. W przypadku termostatu, który reguluje temperaturę w pokoju, raczej nie będziemy mówić, że dysponuje on sztuczną inteligencją. Urządzenie samostrzelne jest już jednak pewnym prostym robotem bojowym, ale i ono nie jest wyposażone w sztuczną inteligencję.

Trzeba jednak pamiętać, że granica pomiędzy sztuczną inteligencją a prostym programem działania, takim, jakim dysponuje urządzenie samostrzelne, jest płynna. Dlatego najważniejsze pytanie brzmi: kto podejmuje decyzję o zabijaniu? W przypadku miny pewnie ten, kto ją wyprodukował bądź położył w określonym miejscu. To oni ponoszą odpowiedzialność moralną za to, co nastąpi potem.

Ale już dziś są przecież takie inteligentne systemy uzbrojenia jak system obrony przeciwrakietowej. Muszą one błyskawicznie rozpoznawać rakiety przeciwnika i niszczyć je szybciej niż obsługujący je człowiek zdąży nacisnąć na guzik z napisem "Start". Może to prowadzić do tragedii, takich jak zestrzelenie irańskiego samolotu pasażerskiego, który amerykański okręt błędnie zidentyfikował jako wrogą rakietę. Czy sztuczna inteligencja nie jest zatem już od dawna obecna w naszym życiu?

Cóż, można tak powiedzieć. To jest przekonujący przykład i pewnie znalazłoby się ich więcej. Dotyczą one nie tylko systemów uzbrojenia, ale także, na przykład, systemów umożliwiających samochodom jazdę autonomiczną. Im więcej będzie systemów wspomagających pracę kierowcy, lub uwalniających go całkowicie od kierowania pojazdem, tym więcej będzie też wypadków drogowych przez nie spowodowanych.

Przypuśćmy, że jeden z takich systemów dostrzeże dziecko, które nagle wbiegło na jezdnię. Aby nie przejechać dziecka, system błyskawicznie zmieni kurs samochodu autonomicznego, który może wtedy zderzyć się z innym pojazdem. To trudna sprawa, bo kiedy sprawcą wypadku jest człowiek, godzimy się z tym, że jego reakcje i decyzje nie zawsze są idealne, ale kiedy za wypadek będzie odpowiadał system automatyczny, który w założeniu miał chronić nas przed nim, wtedy będziemy musieli się pogodzić z myślą, że i on może podejmować niewłaściwe decyzje.

Orędownicy sztucznej inteligencji powiedzą na to, że ludzie popełniają dużo więcej błędów niż automaty, które - jak choćby izraelski system obrony przeciwrakietowej Iron Dome - uratował już wiele istnień ludzkich

W przypadku samochodów autonomicznych tylko kwestią czasu jest osiągnięcie stanu, w którym będą one bezpieczniejsze niż samochody kierowane przez najlepszego kierowcę. W przypadku systemów uzbrojenia, te autonomiczne też zapewne będą działały dużo bardziej precyzyjnie niż obsługiwane przez wyszkolonych żołnierzy i nie pomylą żołnierzy przeciwnika z ludnością cywilną. Musimy jednak wziąć pod uwagę pewien dodatkowy, jakże ważny aspekt, który się z nimi wiąże. Otóż w działaniach militarnych chodzi głównie o to, aby świadomie zadać drugiej stronie jak największe straty, a więc także kogoś zabić.

Mam ogromny problem kiedy myślę, że tak ważną decyzję moralną będzie podejmował kiedyś nie żołnierz, tylko będący na jego wyposażeniu autonomiczny robot bojowy. Trudno jest mi wyobrazić sobie co się stanie, kiedy jedne kraje będą już dysponowały takim uzbrojeniem, a inne nie. Czy roboty bojowe będą wtedy walczyły z żołnierzami? Albo roboty z robotami? Czy wtedy łatwiej i szbciej będzie się podejmować decyzję o wszczęciu wojny? Moim zdaniem jest to igraniem z ogniem. Nie wiem co będzie i jak będzie. Ale właśnie dlatego, że tego nie wiem, podpisałem się pod listem ostrzegającym o możliwych skutkach prac nad autonomicznymi robotami bojowymi.

W tym liście ostrzega się też przed nowym wyścigiem zbrojeń na zupełnie nowym poziomie technologicznym. Czy ma Pan informacje, że w Niemczech też się pracuje nad projektami broni autonomicznych?

W Niemczech badania podstawowe są bardziej odległe od badań nad nowymi systemami uzbrojenia niż w innych krajach. Większość moich kolegów naukowców zapewne niechętnie zgodziłaby się uczestniczyć w tych drugich nawet za naprawdę duże zarobki. W USA wygląda to inaczej. Tam wiele pieniędzy na badania podstawowe wypływa z Agencji Zaawansowanych Projektów Badawczych w Obszarze Obronności (DARPA). Nie są to badania ściśle militarne, ale ich wyniki mogą znaleźć zastosowanie do celów wojskowych. Osobiście nie znam nikogo, kto pracowałby nad budową dronów zdolnych samodzielnie strzelać do żołnierzy przeciwnika po ich wykryciu. Ale od strony technicznej jest to w pełni możliwe i myślę, że po cichu się nad tym pracuje.

Prof. dr. Bernhard Schölkopf jest kierownikiem wydziału empirycznej interferencji w Instytucie Systemów Inteligentnych im. Maxa Plancka w Tybindze. W pracy naukowej zajmuje się m.in. sposobami, w jakie maszyny dzięki danym empirycznym uczą się czegoś nowego i zmieniają przez to swoje zachowanie.

Z prof. Schölkopfem rozmawiał Fabian Schmidt.

tłum.: Andrzej Pawlak