5
P ierwszy dron bojowy został wykona- ny w 1918 roku przez amerykańskich wynalazców Charlesa Ketteringa i El- mera Ambrose’a Sperry’ego. Nazywał się Kettering Bug. Był wysoki na cztery metry, długi na trzy metry osiemdziesiąt, a jego skrzydła miały pięćdziesiąt metrów długości. Latał z prędkością stu dziewięćdziesięciu kilo- metrów na godzinę, nosząc w swoim wnętrzu bombę ważącą osiemdziesiąt kilogramów, któ- ra tylko z dużym przybliżeniem trafiała w cel. Siły zbrojne Stanów Zjednoczonych wyposa- żyły się w pięćdziesiąt tego rodzaju zdalnie sterowanych samolotów – UAV (Unmanned Aerial Vehicle), ale Wielka Wojna dobiegała końca i nie zdążyły już ich użyć. Ponieważ były dość prymitywne, od razu przystąpiono do ich ulepszania, chciano, by weszły w skład sił zbrojnych Stanów Zjednoczonych, a następ- nie wojsk angielskich i niemieckich. Przezna- czone do ćwiczeń przeciwlotniczych jako cele ruchome, podczas II wojny światowej zostały użyte przez Adolfa Hitlera przeciwko wrogim Anglikom. W 1945 roku bomby jego niszczyciel- skich V-1, będących owocem zaawansowanych badań technologicznych, spowodowały śmierć dziewięciuset osób oraz zraniły trzydzieści pięć tysięcy brytyjskich cywilów. W reakcji Stany Zjednoczone – które udoskonaliły na- tychmiast swoje UAV – wystrzeliły je na nazi- stowskie. W ten sposób niebo nad Europą stało się sceną pierwszej „wirtualnej” bitwy między zdalnie sterowanymi maszynami. Po fatalnym epilogu Projektu Manhattan, nad którym – jak wiadomo – pracowali najwybitniejsi naukowcy z całego świata, Stany Zjednoczone, oprócz programu atomowego, przewidziały zaraz po wojnie bezprecedensowe inwestycje w rozwój UAV-ów. Nie przypadkiem drony bojowe uchodzą dziś za emblemat chirurgicz- nej wojny – dumę technologicznego parku sił zbrojnych każdego liczącego się i rozwiniętego kraju. Wielka Wojna rozpoczyna zatem technolo- giczny wyścig zbrojeń: oprócz pierwszego UAV oraz innych samolotów bojowych pojawiły się pierwsze sterowce, łodzie podwodne, czołgi, miotacze ognia, granaty, gazy bojowe, maski przeciwgazowe, kombinezony maskujące, radiokomunikaty i kryptogramy oraz wiele innych narzędzi wojennych, które – znacznie udoskonalone – należą do standardowego wyposażenia współczesnych wojsk. Wówczas zachwyt innowacją był związany z powszech- nym upojeniem wojną, ekonomia wojenna finansowała zaś najbardziej zaawansowane badania naukowe i technologiczne. Poczynając od Wielkiej Wojny, badania te mogły liczyć na coraz większe wsparcie zarówno ze strony władz państwowych, jak i prywatnych. Zaan- gażowano do nich najlepsze uczelnie i ośrodki badawcze, zatrudniono wybitnych naukowców i inżynierów, którzy – mniej lub bardziej świa- domi swoich zadań, za to zachłyśnięci wojną technologiczną – dali się wciągnąć w grę. W ciągu ostatnich dwudziestu lat rozwój sztucznej inteligencji oraz technologii Nunzia Bonifati sprawczość autoportret 3 [46] 2014 | 105

Nunzia Bonifati, Sprawczość

Embed Size (px)

Citation preview

Page 1: Nunzia Bonifati, Sprawczość

Pierwszy dron bojowy został wykona-ny w 1918 roku przez amerykańskich wynalazców Charlesa Ketteringa i El-mera Ambrose’a Sperry’ego. Nazywał

się Kettering Bug. Był wysoki na cztery metry, długi na trzy metry osiemdziesiąt, a jego skrzydła miały pięćdziesiąt metrów długości. Latał z prędkością stu dziewięćdziesięciu kilo-metrów na godzinę, nosząc w swoim wnętrzu bombę ważącą osiemdziesiąt kilogramów, któ-ra tylko z dużym przybliżeniem trafiała w cel. Siły zbrojne Stanów Zjednoczonych wyposa-żyły się w pięćdziesiąt tego rodzaju zdalnie sterowanych samolotów – UAV (Unmanned Aerial Vehicle), ale Wielka Wojna dobiegała końca i nie zdążyły już ich użyć. Ponieważ były dość prymitywne, od razu przystąpiono do ich ulepszania, chciano, by weszły w skład sił zbrojnych Stanów Zjednoczonych, a następ-nie wojsk angielskich i niemieckich. Przezna-czone do ćwiczeń przeciwlotniczych jako cele ruchome, podczas II wojny światowej zostały użyte przez Adolfa Hitlera przeciwko wrogim

Anglikom. W 1945 roku bomby jego niszczyciel-skich V-1, będących owocem zaawansowanych badań technologicznych, spowodowały śmierć dziewięciuset osób oraz zraniły trzydzieści pięć tysięcy brytyjskich cywilów. W reakcji Stany Zjednoczone – które udoskonaliły na-tychmiast swoje UAV – wystrzeliły je na nazi-stowskie. W ten sposób niebo nad Europą stało się sceną pierwszej „wirtualnej” bitwy między zdalnie sterowanymi maszynami. Po fatalnym epilogu Projektu Manhattan, nad którym – jak wiadomo – pracowali najwybitniejsi naukowcy z całego świata, Stany Zjednoczone, oprócz programu atomowego, przewidziały zaraz po wojnie bezprecedensowe inwestycje w rozwój UAV-ów. Nie przypadkiem drony bojowe uchodzą dziś za emblemat chirurgicz-nej wojny – dumę technologicznego parku sił zbrojnych każdego liczącego się i rozwiniętego kraju.

Wielka Wojna rozpoczyna zatem technolo-giczny wyścig zbrojeń: oprócz pierwszego UAV

oraz innych samolotów bojowych pojawiły się pierwsze sterowce, łodzie podwodne, czołgi, miotacze ognia, granaty, gazy bojowe, maski przeciwgazowe, kombinezony maskujące, radiokomunikaty i kryptogramy oraz wiele innych narzędzi wojennych, które – znacznie udoskonalone – należą do standardowego wyposażenia współczesnych wojsk. Wówczas zachwyt innowacją był związany z powszech-nym upojeniem wojną, ekonomia wojenna finansowała zaś najbardziej zaawansowane badania naukowe i technologiczne. Poczynając od Wielkiej Wojny, badania te mogły liczyć na coraz większe wsparcie zarówno ze strony władz państwowych, jak i prywatnych. Zaan-gażowano do nich najlepsze uczelnie i ośrodki badawcze, zatrudniono wybitnych naukowców i inżynierów, którzy – mniej lub bardziej świa-domi swoich zadań, za to zachłyśnięci wojną technologiczną – dali się wciągnąć w grę.

W ciągu ostatnich dwudziestu lat rozwój sztucznej inteligencji oraz technologii

Nunzia Bonifati

sprawczość

autoportret 3 [46] 2014 | 105

Page 2: Nunzia Bonifati, Sprawczość

satelitarnych i robotycznych uczynił maszy-ny bojowe inteligentnymi: same patrolują, filmują, rejestrują, wymieniają się informa-cjami i trafiają w obiekty wrogów, usytuowane w miejscach tak odległych od centrali stero-wania, że wydają się wirtualne. Prymitywny dron Kettering Bug wyewoluował w robota, to jest w maszynę wyposażoną w program, w różnego rodzaju czujniki, organy lokomocji, i zdolną do interakcji z otoczeniem oraz do pewnego rodzaju samodzielnego działania.

Drony nie są oczywiście jedynymi bojowymi maszynami inteligentnymi. Każdy rozwi-nięty technologicznie kraj posiada okręty, łodzie podwodne, czołgi, robotycznych war-towników i karabiny maszynowe umiejące się poruszać, mapować teren, zdobywać in-formacje oraz, na ludzką komendę, atakować cele wroga. Dzisiaj większość maszyn bojo-wych to albo roboty, albo maszyny elektro-niczne wyposażone w oprogramowanie. Jeśli są podłączone przez satelitę do łańcucha sterowania, mogą się wymieniać informa-cjami, komunikować z bazą wojskową oraz z peryferyjnymi placówkami, podobnie jak

wszystkie pospolite narzędzia elektroniczne. Sądząc po obecnym stanie badań, niewy-kluczone, że w ciągu kilku dziesięcioleci wszelkiego rodzaju broń – środki naziemne, samoloty, okręty, łodzie podwodne, karabi-ny maszynowe itd. – zostanie zastąpiona robotami mogącymi w razie potrzeby działać w zastępstwie żołnierzy. Oznacza to, że zmierzamy coraz bardziej w stronę wojny na odległość: wirtualnej, ale przez to nie mniej niszczycielskiej dla ofiar. Żołnierze i maszy-ny będą zatem we wzajemnej komunikacji, jakby stanowiąc jedną istotę składającą się z umysłu i ręki. Poza tym wyposażone w od-powiednie programy komputery lub roboty będą być może w przyszłości podejmować decyzje, jakie strategie wojskowe zastosować lub jak prowadzić bitwy.

Ponieważ roboty mogą dokonywać czynów ryzykownych, trudnych albo też całkowicie niewykonalnych dla człowieka, świetnie nada-ją się do tego, by towarzyszyć żołnierzom albo ich zastępować w wykonywaniu zadań. Trzeba będzie zadecydować, jaki stopień wolności przyznać tym maszynom, biorąc pod uwagę,

że istnieją trzy poziomy ich autonomii (tylko pierwszy z nich jest dziś dozwolony prawem konfliktów zbrojnych), a mianowicie:

– pierwszy: raz wyodrębniwszy cel, broń uderza wyłącznie na ludzką komendę (human-in-the-loop weapons);

– drugi: wyodrębniwszy cel, broń uderza samodzielnie, pod kontrolą człowieka (human-on-the-loop weapons);

– trzeci: wyodrębniwszy cel, broń uderza cał-kowicie samodzielnie, bez kontroli człowieka (human-out-of-the-loop weapons).

Trzeba dodać, iż w obrębie zintegrowanego systemu walki maszyny inteligentne i ludzie żyją w pewnego rodzaju symbiozie, w ramach której dają się postrzegać jako węzły w sie-ci systemu obrony. W uproszczeniu można powiedzieć, że zintegrowane systemy walki działają jak portal społecznościowy łączący wszystkie komponenty systemu: żołnierzy, satelity, centrale i stanowiska sterowania, infrastruktury, środki naziemne, samoloty, okręty, łodzie podwodne, broń palną oraz inne wyposażenia.

War network jest jeszcze w powijakach, nie możemy zatem przewidzieć, jak bardzo niszczycielskie mogą być jej skutki. Tym bardziej że jeśli spojrzeć na programy DARPA (Amerykańskiej Agencji Obrony do Spraw Zaawansowanych Badań) oraz na Unmanned systems integrated roadmap 2011–2036 odpowied-niego wydziału obrony, można sobie wyobrazić rozbudowane scenariusze, których sens trudno rozszyfrować. Wyraźnie jednak z nich wynika, że symbioza między żołnierzem i maszyną inteligentną staje się coraz ściślejsza. Sym-bioza ta mogłaby osiągnąć poziom równości w hierarchii, a nawet prowadzić do dominacji maszyny nad człowiekiem; na przykład prosty

Kettering Bug, 1918w

ikim

edia

com

mon

s

autoportret 3 [46] 2014 | 106 autoportret 3 [46] 2014 | 107

Page 3: Nunzia Bonifati, Sprawczość

żołnierz mógłby otrzymywać polecenia od maszyny w stopniu kaprala.

W obecnej chwili drony bojowe stanowią naj-bardziej wyrazisty przykład ścisłej więzi żołnie-rza z maszyną. Szczególnie w Stanach Zjedno-czonych i w Izraelu UAV-y są szeroko stosowane w działaniach wojskowych i wywiadowczych oraz do bombardowania wrogich celów. Sateli-tarnie połączone z centralą, wyposażone w czuj-niki i zdalnie kierowane systemem pozwalają-cym im na samodzielne działanie o wysokim stopniu precyzji, drony bojowe mogą dotrzeć do celu, przelatywać nad pewnym obszarem, żeby go mapować, wysyłać obrazy do centrali i rzucać bomby o wysokim stopniu precyzji na obiekty wroga. Ponieważ, jak wspomnia-łam, użycie samodzielnych broni zabójczych jest dzisiaj zakazane przez prawo konfliktów zbrojnych, polecenie rzucenia bomby siłą rzeczy należy do człowieka. Siedzący w kabinie stero-wania operator, być może znajdujący się tysiące kilometrów od drona, choć hierarchicznie stoi wyżej od maszyny, nadal stanowi jednak skład-nik zintegrowanego systemu zdalnego sterowa-nia. Komend udziela się bowiem na podstawie informacji dostarczanych przez maszynę, której ludzki aktor musi zaufać. Działalność wywiadu całkowicie powierzono bowiem maszynie, która widzi zamiast człowieka.

Właśnie zaufanie, jakim obdarzona zostaje ma-szyna, stanowi najbardziej krytyczny aspekt symbiozy, o której tu mowa. Przede wszystkim ludzki operator może źle interpretować dane przekazywane przez maszynę, nie doceniając ich lub je przeceniając, wskutek czego może nadać maszynie błędną komendę. Poza tym fizyczna odległość ludzkiego operatora od celu sprzyja wytworzeniu emocjonalnego dystansu (czarną robotę i tak wykonuje maszyna). Przy nadawaniu komendy operator może zatem mieć mniej skrupułów i być nieprecyzyjny, co nie pomniejsza emocjonalnego szoku, jeśli

nieszczęśliwym trafem spowoduje śmierć wie-lu bezbronnych cywili. Podobne rozważania, mogące stosować się do wszystkich zdalnie sterowanych maszyn, można znaleźć w Losing Humanity (2012) – publikacji wydanej przez or-ganizację pozarządową Human Rights Watch.

Problemy wynikające z interpretacji danych przekazywanych przez maszynę oraz emocjo-nalnego dystansu osoby sterującej mogą się okazać fatalne dla tych, którzy są celem ataku dronów, powodując śmierć i zranienie bezbron-nych cywili oraz zniszczenie ich dóbr material-nych. Według szacowań Bureau of Investigative Journalism w latach 2004–2014 w Pakistanie ataki dronów prowadzone przez CIA podczas operacji antyterrorystycznych spowodowały śmierć około 2296–3719 osób, z których 416–957 to cywile, oraz 168–202 dzieci, a także zranienie 1089–1639 osób. Nie wspominając o tym, że w ob-szarach o znacznej gęstości zaludnienia sławna precyzja dronów bojowych jest makabryczną chimerą. Dowodzi tego wysoka liczba ofiar wśród cywili, którą izraelskie drony spowodo-wały ostatnio w strefie Gazy podczas próby ude-rzenia na ukryte wśród domów biedoty bazy, skąd wystrzeliwano rakiety Hamasu. Prawdą jest, iż drony są bardzo pożyteczne w chirur-gicznej obronie kraju, jednak kiedy atakują – nawet jeśli nie mylą celu – często trafiają w bezbronnych cywili.

Wracając do kwestii Pakistanu: badania Living under Drones, Death, Injury and Trauma to Civilians From US Drone Practices in Pakistan (Stanford Law School & NYU School of Law, 2012) wskazują, że społeczno-ekonomiczne skutki ataków dronów są dla ludności cywil-nej bardzo dotkliwe. Do poranienia i śmierci cywilów dochodzą szkody wyrządzone mieniu, trudności gospodarcze oraz traumy rodzin ofiar i rannych. Dalej dołączają do nich strach i stres, szczególnie z powodu niemożności prowadzenia normalnego życia. Drony celują

w skupiska ludzi, w których mogliby się ukrywać terroryści. W konsekwencji ludzie, bojąc się, że mogą zostać uderzeni, starają się unikać takich sytuacji. Ponieważ zaś ataki nie są jednorazowe, lecz się powtarzają, ludzie boją się przyjść z pomocą ofiarom. Negatywny wpływ, czytamy w studium, jest emocjonalnie destrukcyjny także dla osób, które nie doznały bezpośrednich szkód, jak dowodzi świadec-two pakistańskiego studenta: „w czasie ataku dronów miałem podejść do egzaminów, ale... w ogóle nie mogłem się uczyć, to wpłynęło na moje uczucia... Stałem się bardzo niecier-pliwy i nawet drobiazgi bardzo mnie dener-wowały. Szybko się wkurzałem, małe rzeczy wyprowadzały mnie z równowagi”. Słowa te brzmią, jakby były efektem wojny, choć Paki-stan nie jest przecież w stanie wojny!

Chociaż wszystkim już wiadomo, szczególnie dzięki międzynarodowym obserwatorom takim jak Human Right Watch, że chirurgicz-na wojna z humanitarnego punktu widzenia jest porażką, wyścig supertechnologicznych zbrojeń trwa. Co więcej, od dłuższego czasu toczy się debata, czy należy przyznać większą autonomię działania broni robotycznej. Temat jest na tyle aktualny, że dyskutowano o tym w maju 2014 roku w siedzibie ONZ w Genewie podczas pierwszego Meeting of Experts on Lethal Autonomous Weapons Systems. Brały w nim udział kraje członkowskie, najwyżej akredytowane międzynarodowe organizacje pozarządowe (wśród nich Czerwony Krzyż, ICRAC – Inter-national Committee for Robots Arm Control, Campaign to Stop Killer Robots) oraz najlepsi eksperci wśród wojskowych, prawników, adwo-katów, robotyków, filozofów, etyków, socjolo-gów itd. Szkoda tylko, że podjęte decyzje będą miały wartość wyłącznie orientacyjną i nie będą obowiązujące dla państw członkowskich.

Od około dziesięciolecia specjaliści wypo-wiadają się na forum międzynarodowym za

autoportret 3 [46] 2014 | 106 autoportret 3 [46] 2014 | 107

Page 4: Nunzia Bonifati, Sprawczość

autonomią robotycznej broni lub przeciw niej. Wielu robotyków, jak Noel Sharkey (University of Sheffield, Wielka Brytania), Gianmarco Veruggio (Cnr-IEIIT, It e Scuola di robotica, It) oraz ekspert bezpieczeństwa Armin Krishnan (East Carolina University, USA), uważa, iż lethal autonomous robots i killer robots (tak wolą je nazywać) mogą powodować śmierć niewinnych ofiar, czyli nie przestrze-gać ludzkich praw. Inni eksperci, wśród nich znany robotyk i roboetyk Ronald Arkin (Geo-rgia Institute of Technology, USA), uważają, iż także z powodów moralnych warto rozwi-jać robotyczne maszyny bojowe i wyposażać je w pewien stopień autonomii.

Zgodnie z tą ostatnią perspektywą użycie robotycznej broni byłoby etycznie do przyjęcia z trzech powodów. Przytaczam je, komentując.

„Maszyny mogą być bardziej precyzyjne i skuteczne niż ludzie”. Tak jest w wyso-ce kontrolowanym otoczeniu, jak fabryki specjalnie organizowane po to, by gościć roboty, które całkowicie zastąpiły robotników w najtrudniejszych i najbardziej niebezpiecz-nych pracach. W niedającym się kontrolować otoczeniu, jak ośrodki miejskie lub wiejskie, precyzja maszyny nie może być zagwaran-towana, gdyż kontekst w każdej chwili się zmienia i margines błędu maszyny może się w konsekwencji znacznie powiększać.

„Gdyby najbardziej niebezpieczne działania wojenne powierzono robotycznym maszynom bojowym, liczba ofiar, szczególnie wśród żołnierzy, znacznie by się obniżyła. Życie ludzkie ma bowiem dużo większą wartość niż maszyny”. Argument ten byłby bez zarzutu, gdyby roboty walczyły tylko między sobą i w oddaleniu od miejsc zamieszkanych przez ludzi lub zwierzęta, od zabytków kultury i przyrody. W przeciwnym razie uszliby z życiem tylko żołnierze wojsk wyposażo-

nych w broń supertechnologiczną, a kraje niedysponujące maszynami inteligentnymi przypłaciłyby to większą liczbą ofiar i szkód materialnych, pomijając kwestię liczby ofiar wśród cywili, która – jak widzieliśmy – mu-siałaby wręcz rosnąć.

„Maszyny nie żywią wrogich uczuć do człowieka, zatem nie mogą popełniać prze-stępstw lub okrucieństw, do których zdolni są ludzie”. To chyba najbardziej kontrowersyjny argument. Istoty ludzkie posiadają bowiem całą gamę uczuć: od nienawiści do miłości, od litości do obojętności, od zemsty do prze-baczenia. Wojna często wydobywa zarówno uczucia pozytywne (bohaterskie czyny), jak i te negatywne (okrucieństwa). Prawdą jest, iż maszyna nie żywi nienawiści do wro-ga, ale też nie zna współczucia. Co więcej, robot-żołnierz mógłby i tak popełnić wiele przestępstw, nawet w sposób niezamierzony. Przykładów jest wiele: mógłby bombardować szkołę, biorąc ją za wrogą bazę; mógłby strze-lać do grupy poddających się żołnierzy, źle interpretując gest poddania; mógłby śmier-telnie uderzyć w grupę dzieci bawiących się w wojnę, mylnie odczytując ich intencje itd. Poza tym, nie mogąc doznawać pozytywnych uczuć, maszyny nie oszczędzałyby nikogo, z własnej inicjatywy nie przychodziłyby nigdy w sukurs oraz – przede wszystkim – nie odmawiałyby wykonania niemoralnego lub bezprawnego polecenia zwierzchnika. To ostatnie zagadnienie jest podnoszone przez wielu filozofów przeciwnych autonomii maszyn wojennych. Skłaniam się ku zdaniu Petera Asaro (The New School University, USA) oraz Johna McGinnisa (Northwestern University School of Law, USA) i uważam, że robotyczna broń powinna być używana tylko w razie konieczności, kiedy koszty całościo-wo nie przekraczają korzyści. Niedopuszczal-ne jest przyznanie jej autonomii działania, gdyż nie posiada dyskrecjonalności – inny-

mi słowy, nie posiada zdolności sądzenia, a zatem wyboru, które skłaniają człowieka do zgody lub niezgody. Żołnierz zawsze może odmówić wykonania niemoralnego lub bezprawnego polecenia, biorąc na siebie od-powiedzialność za odmowę. Maszyna, choćby technologicznie bardzo zaawansowana, nie może tego zrobić: jest zaprogramowana, by słuchać poleceń zwierzchników. Projektanci nie mieliby zresztą najmniejszego powodu, by wyposażyć robota-żołnierza w ludzki zmysł sądzenia, krytycznego myślenia; byłoby to niefunkcjonalne. Żołnierz jest poddawany bardzo trudnemu szkoleniu, służącemu pozbawieniu go osobowości i de-humanizującemu, predysponującemu go do ślepego posłuszeństwa. Po co zatem humani-zować robota, którego posłuszeństwo można zaprogramować?

Konkludując, wydaje się, że argumenty na rzecz autonomii broni bardziej opierają się na skuteczności obrony, racjonalizacji wojska i redukcji liczby ofiar wśród żołnierzy danego kraju (na ten temat opinia publiczna jest bar-dzo wrażliwa) niż na kwestiach etycznych. To zresztą zrozumiałe, że państwa chcą być wyposażone w technologicznie zaawansowa-ną broń oraz w zintegrowane systemy walki – chcą bronić się skutecznie przez ewentual-nymi atakami wroga. Poza tym raz rozpoczę-tą wojnę trzeba też wygrać z pomocą dobrych i godnych zaufania sojuszów, ze wsparciem opinii publicznej oraz za pośrednictwem mocnego, sprawnego i technologicznie zaawansowanego wojska. Od Wielkiej Wojny żaden pacyfistyczny ruch, żadna oparta na solidnych zasadach organizacja nie potrafiły powstrzymać wyścigu supertechnologiczych zbrojeń. Przede wszystkim świat zachodni, choć nieobca jest mu wartość ludzkich praw, podżega do wojny – jest uzbrojony po zęby, tłumacząc się obroną własnych praw. Można sądzić, iż Zachód nie przestanie inwestować

autoportret 3 [46] 2014 | 108 autoportret 3 [46] 2014 | 109

Page 5: Nunzia Bonifati, Sprawczość

w zaawansowane badania wojskowe. Kiedy robotyczna broń będzie na tyle udoskona-lona, że lepiej niż dziś będzie się nadawać do autonomicznej pracy, pokusa jej zasto-sowania będzie duża i do prawa konfliktów zbrojnych zostaną wprowadzone stosowne modyfikacje. Nawet gdyby zakaz ich użwania nie został zniesiony, prawa wojenne i tak nie będą przestrzegane – historia bowiem uczy, że zawsze stosowano niekonwencjonal-ną broń. Wystarczy przywołać zagadnienie broni chemicznej: chociaż jej użycie bywało wielekroć zakazywane już od starożytności, wciąż jest stosowana. Posiłkując się badania-mi naukowymi, podczas II wojny światowej Niemcy wypróbowały liczne destrukcyjne środki chemiczne, na przykład gazy zabój-cze: fosgen, chlor, kwas cyjanowodorowy, iperyt siarkowy i arsenowodór. Odtąd wiele wojsk – nielegalnie – wprowadziło je do swojego arsenału. W 1972 roku podczas wojny w Wietnamie Stany Zjednoczone nie wahały się użyć śmiertelnego napalmu przeciwko bezbronnej ludności lokalnej. Jeśli prawdą jest, że autonomiczna broń nie jest taka sama jak chemiczna, lecz może co najmniej wzmocnić zdolność obrony kraju i pomniej-szyć liczbę ofiar wśród żołnierzy, będzie powodowała także wszystkie problemy, które pokrótce tu opisałam, a zwłaszcza wzrost liczby konfliktów, wynikający z okoliczności, że wojna na odległość, jako zdepersonali-zowana, jest łatwa do podjęcia. Wojna taka będzie jednak coraz bardziej nieludzka.

tłumaczenie z włoskiego:

emiliano ranocchi

autoportret 3 [46] 2014 | 108 autoportret 3 [46] 2014 | 109