Ani „Terminator” ani „Hardware” nie popsuły reputacji robotów. Stara jak świat jest intuicja, że maszyny – z założenia mając nam służyć – narobią nam tylko kłopotów. Taką przestrogą jest sztuka „R.U.R” Karola Capka. To czeski pisarz wymyślił termin „robot”.
Mniejsza o obawy przed buntem maszyn lub awariami, cofającymi ludzkość w czasy barbarii. Nie chodzi też o symboliczne drobne incydenty, sugerujące że igramy z ogniem. Problem w rewolucyjnej zmianie, która dokonuje się w laboratoriach pracujących na rzecz armii.
Niebawem wkroczymy w drugą dekadę XXI w. i newsy o bezzałogowych dronach tropiących talibów nie robią na nas dużego wrażenia. Spowszedniały także żołnierskie relacje, jak to maszyny chronią im życie; vide: gąsienicowe talony, wyręczające w rozpoznaniu i unieszkodliwianiu ładunków wybuchowych.
Co krok słyszymy o testach kolejnych maszyn: latający robo-snajper czy poruszający się jak zwierzę bigdog . Wojsko chętnie ich zwerbuje i wyśle na niebezpieczną misję. To kwestia czasu.
Że zdalnie sterowane, a w przyszłości autonomiczne maszyny, zmienią oblicze wojny nie ma wątpliwości Peter Warren Singer, autor książki „Wired for War”. Publicysta (były doradca Pentagonu i CIA) tym zagadnieniem się fascynuje, ale nie jest bezkrytyczny.
Singer stawia tezę, iż robotyzacja armii ostatecznie zdehumanizuje przeciwnika, czyniąc stosowanie przemocy aktem łatwiejszym, nie rodzącym moralnych dylematów.
Trudno się z tym spostrzeżeniem nie zgodzić, bo czy można oskarżyć maszynę o zbrodnie wojenne i postawić przed trybunałem? Czy pokusa wysłania do boju robotów zamiast żołnierzy, nie oznacza dla polityków wojny „bez kosztów”, nie narażającej ich na ryzyko utraty popularności wśród wyborców?
Comments
4 odpowiedzi na „War 2.0”
Hardware – wyborny film, tyle lat po premierze, a nadal mam go w pamięci.Co do reszty wpisu: nie ma większego problemu dokąd za robotem będzie stał sterujący nim człowiek, to odpowiedzialność pozostanie dość jasno określona. Nikt sobie tu za tanio sumienia nie oczyści.
tak, gdzieś na końcu zawsze jest człowiek. to, że zabijanie będzie (technicznie) łatwiejsze, nie znaczy, że będzie etycznie lepsze. tak jak sprawny karabin nie czyści sumienia bardziej niż nieporęczna maczuga.a co z robotami, które obdarzymy sztuczną inteligencją podobną do naszej? to dopiero dylemat moralny.no i ofkors, co jest bardziej humanitarne: wyręczanie się robotami czy osobiste likwidowanie wroga strzałem między oczy. bo trzecia droga – nikt nikomu w nic nie strzela – raczej nie istnieje.
->Krzychupolecam "Eagle Eye", ciekawa filmowa wariacja na temat dalekosiężnych politycznych skutków korzystania z hig tech 😉 ->VontrompkaW "Nowoczesności i zagładzie" Z. Bauman nader przekonywująco pisze o "rozmywaniu się" odpowiedzialności: urzędnicy przybijający pieczątki i w ten sposób koordynujący kolejowe transporty do obozów zagłady, robotnicy skręcający w fabrykach pociski i lotnicze bomby. Czy ciążyło im poczucie winy? Raczej nie, gdyż ubezwłasnowolnieni, uznając siebie za trybiki w machinie, nie poczuwali się do winy. Takie są uroki specjalizacji. Myślę, że podobny proces "rozwodnienia" etycznych dylematów zaistnieje, gdy w końcu roboty otrzymają pewien zakres swobody, np. wyboru i eliminacji wcześniej wskazanych celów. Czy dron przerwie ostrzał przeciwnika, jeśli ten skapituluje i poprosi o łaskę?
jeśli przeciwnik nadaje w tym samym protokole, to czemu nie 😉