Creare robot killer è una pessima idea. Dmitry, ispiratore ideologico e tuttofare

Un grande raduno di scienziati, leader del settore e ONG ha lanciato una campagna per fermare i robot killer, impegnata a prevenire lo sviluppo di sistemi d’arma autonomi da combattimento. Tra coloro che si sono iscritti c'erano: Stephen Hawking, Noam Chomsky, Elon Musk e Steve Wozniak.

Questi grandi nomi stanno suscitando molta attenzione e legittimando il fatto che i robot assassini, una volta considerati fantascienza, si stanno in realtà avvicinando rapidamente alla realtà.

Un interessante studio pubblicato sull'International Journal of Cultural Studies adotta un approccio diverso all'idea di "robot assassini" come concetto culturale. I ricercatori sostengono che anche i robot più avanzati sono semplicemente macchine, come tutto ciò che l’umanità ha mai realizzato.

“Il fatto è che l’idea del robot killer non è venuta dal nulla”, ha detto il coautore Tero Karppi, assistente professore di teoria dei media presso l’Università di Buffalo. “Ciò è stato preceduto da metodi e tecnologie per rendere possibile l’ideazione e lo sviluppo di questi sistemi”.

In altre parole, ci preoccupiamo dei robot killer. Gli autori esplorano il tema dei robot assassini in film come The Terminator o I, Robot, in cui teorizzano che in un lontano futuro i robot finiranno per schiavizzare la razza umana.

“Negli ultimi decenni, l’uso sempre più diffuso di armi senza pilota ha cambiato radicalmente la guerra, apportando nuove opportunità umanitarie problemi legali. Ora si sono verificati rapidi progressi nella tecnologia, come risultato degli sforzi per sviluppare armi completamente autonome. Queste armi robotiche avranno la capacità di selezionare il fuoco su un bersaglio in modo indipendente, senza alcun intervento umano."

I ricercatori rispondono che questi scenari distopici allarmistici riflettono una visione del mondo “tecno-deterministica”, in cui ai sistemi tecnologici viene data troppa autonomia, il che potrebbe essere distruttivo non solo per la società, ma per l’intera razza umana.

Ma cosa accadrebbe se codificassimo l’intelligenza artificiale in modo tale che i robot non possano nemmeno distinguere tra un essere umano e una macchina? È un'idea intrigante: se non ci sono "noi" e "loro" non può esserci "noi contro loro".

In effetti, Karppi ha suggerito che potremmo essere in grado di controllare il modo in cui le macchine future penseranno alle persone a livello fondamentale.

Se vogliamo apportare modifiche allo sviluppo di questi sistemi, ora è il momento. Basta vietare le armi autonome letali e affrontare le cause profonde di questo dilemma. Per evitare veramente lo sviluppo di macchine per uccidere autonome.

Mentre il primo ministro Dmitry Medvedev e Arkady Volozh guidavano un Yandex.Taxi senza pilota intorno a Skolkovo, gli ingegneri militari cercavano di capire come adattare le tecnologie dei veicoli senza pilota per creare nuove armi.

In realtà la tecnologia non è proprio quello che sembra. Il problema di tutta l’evoluzione tecnologica è che il confine tra robot commerciali “per la vita” e robot killer militari è incredibilmente sottile e non costa nulla attraversarlo. Per ora stanno scegliendo una rotta e domani potranno scegliere quale obiettivo distruggere.

Non è la prima volta nella storia che il progresso tecnologico mette in discussione l’esistenza stessa dell’umanità: in primo luogo, gli scienziati hanno creato prodotti chimici, biologici e arma nucleare, ora - "armi autonome", cioè robot. L'unica differenza è che fino ad ora le armi erano considerate disumane." distruzione di massa- cioè non scegliere chi uccidere. Oggi la prospettiva è cambiata: un'arma che uccide con particolare discriminazione, scegliendo le vittime secondo il proprio gusto, sembra molto più immorale. E se qualsiasi potere bellicoso fosse fermato dal fatto che se usasse armi biologiche, tutti coloro che lo circondano ne soffrirebbero, allora con i robot tutto è più complicato: possono essere programmati per distruggere un gruppo specifico di oggetti.

Nel 1942, quando lo scrittore americano Isaac Asimov formulò le Tre Leggi della Robotica, tutto sembrava entusiasmante ma del tutto irrealistico. Queste leggi stabilivano che un robot non poteva e non doveva danneggiare o uccidere un essere umano. E devono obbedire incondizionatamente alla volontà dell'uomo, tranne nei casi in cui i suoi ordini contraddicono l'imperativo di cui sopra. Ora che le armi autonome sono diventate una realtà e potrebbero cadere nelle mani dei terroristi, si scopre che i programmatori in qualche modo hanno dimenticato di inserire le leggi di Asimov nei loro software. Ciò significa che i robot possono rappresentare un pericolo e nessuna legge o principio umano può fermarli.

Il missile sviluppato dal Pentagono rileva da solo gli obiettivi grazie a Software, l'intelligenza artificiale (AI) identifica gli obiettivi per l'esercito britannico e la Russia mostra carri armati senza pilota. Sviluppare robot e autonomi equipaggiamento militare V vari paesi Vengono spese quantità colossali di denaro, anche se poche persone vogliono vederlo in azione. Proprio come la maggior parte dei chimici e dei biologi non è interessata a che le loro scoperte vengano eventualmente utilizzate per creare armi chimiche o biologiche, la maggior parte dei ricercatori sull’intelligenza artificiale non sono interessati a creare armi basate su di esse, perché in tal caso una seria protesta pubblica danneggerebbe i loro programmi di ricerca.

Nel suo discorso all'inizio Assemblea generale Nazioni Unite a New York il 25 settembre segretario generale Antonio Guterres ha definito la tecnologia dell’intelligenza artificiale un “rischio globale” insieme al cambiamento climatico e alla crescente disuguaglianza di reddito: “Chiamiamo le cose col loro nome”, ha detto. “La prospettiva che le macchine determinino chi vive è disgustosa.” Guterres è probabilmente l’unico che può spingere i dipartimenti militari a tornare in sé: in precedenza si è occupato dei conflitti in Libia, Yemen e Siria ed è stato Alto Commissario per i rifugiati.

Il problema è quando ulteriori sviluppi i robot potranno decidere da soli chi uccidere. E se alcuni paesi dispongono di tali tecnologie e altri no, allora androidi e droni senza compromessi predetermineranno l’esito di una potenziale battaglia. Tutto ciò contraddice allo stesso tempo tutte le leggi di Asimov. Gli allarmisti potrebbero essere seriamente preoccupati che una rete neurale ad autoapprendimento vada fuori controllo e uccida non solo il nemico, ma tutte le persone in generale. Tuttavia, le prospettive anche per le macchine assassine completamente obbedienti non sono affatto brillanti.

Il lavoro più attivo nel campo dell’intelligenza artificiale e dell’apprendimento automatico oggi non è in ambito militare, ma in ambito civile, presso università e aziende come Google e Facebook. Ma gran parte di questa tecnologia può essere adattata all’uso militare. Ciò significa che un eventuale divieto della ricerca in questo settore avrà ripercussioni anche sullo sviluppo civile.

All’inizio di ottobre, l’organizzazione non governativa americana Stop Killer Robots Campaign ha inviato una lettera alle Nazioni Unite chiedendo che lo sviluppo di armi autonome fosse limitato a livello legislativo internazionale. L’ONU ha chiarito di sostenere questa iniziativa e nell’agosto 2017 Elon Musk e i partecipanti vi hanno aderito Conferenza internazionale Nazioni Unite sull’intelligenza artificiale (IJCAI). Ma in realtà gli Stati Uniti e la Russia si oppongono a tali restrizioni.

L'ultimo incontro dei 70 paesi aderenti alla Convenzione su alcune armi convenzionali (armi disumane) si è svolto a Ginevra in agosto. I diplomatici non sono stati in grado di raggiungere un consenso su come implementare la politica globale sull’intelligenza artificiale. Alcuni paesi (Argentina, Austria, Brasile, Cile, Cina, Egitto e Messico) hanno espresso sostegno per un divieto legislativo sullo sviluppo di armi robotiche. Francia e Germania hanno proposto di introdurre un sistema volontario di tali restrizioni, ma Russia, Stati Uniti, Corea del Sud e Israele hanno dichiarato di non avere intenzione di limitare la ricerca e lo sviluppo condotti in questo settore. A settembre Federica Mogherini, alta funzionaria Unione Europea sulle domande politica estera e politica di sicurezza, ha affermato che le armi "influiscono sulla nostra sicurezza collettiva“Pertanto, la decisione sulla questione della vita e della morte deve restare in ogni caso nelle mani dell’uomo.

Guerra Fredda 2018

I funzionari della difesa statunitensi ritengono che le armi autonome siano necessarie affinché gli Stati Uniti possano mantenere il proprio vantaggio militare su Cina e Russia, che stanno anch’esse investendo in ricerche simili. Nel febbraio 2018, Donald Trump ha chiesto 686 miliardi di dollari per la difesa del Paese l’anno prossimo. anno finanziario. Questi costi sono sempre stati piuttosto elevati e sono diminuiti solo sotto il precedente presidente Barack Obama. Tuttavia, Trump – in modo non originale – ha sostenuto la necessità di aumentarli attraverso la competizione tecnologica con Russia e Cina. Nel 2016, il bilancio del Pentagono ha stanziato 18 miliardi di dollari per lo sviluppo di armi autonome in tre anni. Questo non è molto, ma qui devi tenere conto di un fattore molto importante.

La maggior parte dello sviluppo dell’IA negli Stati Uniti viene effettuato da società commerciali, quindi è ampiamente disponibile e può essere venduta commercialmente ad altri paesi. Il Pentagono non ha il monopolio sulle tecnologie avanzate di apprendimento automatico. L'industria della difesa americana non conduce più le proprie ricerche come faceva durante il " guerra fredda", ma utilizza gli sviluppi delle startup della Silicon Valley, così come dell'Europa e dell'Asia. Allo stesso tempo, in Russia e Cina, tale ricerca è sotto lo stretto controllo dei dipartimenti della difesa, il che, da un lato, limita l’afflusso di nuove idee e lo sviluppo della tecnologia, ma, dall’altro, garantisce finanziamenti statali e protezione.

Secondo gli esperti Il nuovo York Times, Spesa militare per veicoli militari autonomi e droni aerei supererà i 120 miliardi di dollari nel prossimo decennio. Ciò significa che il dibattito alla fine non si riduce alla questione se creare armi autonome, ma al grado di indipendenza dar loro.

Oggi non esistono armi completamente autonome, ma il vicepresidente dei capi di stato maggiore congiunti, generale Paul J. Selva dell'aeronautica militare, ha affermato nel 2016 che entro 10 anni gli Stati Uniti avranno la tecnologia per creare armi in grado di decidere autonomamente chi e quando uccidere. E mentre i paesi discutono se limitare o meno l’intelligenza artificiale, potrebbe essere troppo tardi.

Clearpath Robotics è stata fondata sei anni fa da tre amici del college che condividevano la passione per la creazione di cose. Gli 80 specialisti dell'azienda stanno testando robot fuoristrada come Husky, un robot a quattro ruote utilizzato dal Dipartimento della Difesa degli Stati Uniti. Producono anche droni e hanno persino costruito una barca robotica chiamata Kingfisher. Tuttavia, c’è una cosa che non costruiranno mai di sicuro: un robot in grado di uccidere.

Clearpath è la prima e finora unica azienda di robotica a impegnarsi a non creare robot killer. La decisione è stata presa l'anno scorso dal co-fondatore e CTO dell'azienda, Ryan Garipay, e di fatto ha attirato verso l'azienda esperti che apprezzavano la posizione etica unica di Clearpath. Etica delle aziende robotiche Ultimamente viene in primo piano. Vedi, abbiamo un piede nel futuro dove ci sono robot assassini. E non siamo ancora affatto pronti per loro.

Naturalmente c’è ancora molta strada da fare. La Dodam Systems coreana, ad esempio, sta costruendo una torretta robotica autonoma chiamata Super aEgis II. Utilizza termocamere e telemetri laser per identificare e attaccare bersagli a una distanza massima di 3 chilometri. Secondo quanto riferito, gli Stati Uniti stanno anche sperimentando sistemi missilistici autonomi.

A due passi dai Terminator

I droni militari come il Predator sono attualmente pilotati da esseri umani, ma Garipay afferma che molto presto diventeranno completamente automatici e autonomi. E questo lo preoccupa. Molto. “Sistemi d’arma autonomi mortali potrebbero uscire dalla catena di montaggio adesso. Ma i sistemi d'arma letali che saranno realizzati in conformità standard etici“Non sono nemmeno nei piani”.

Per Garipay il problema è diritti internazionali. In guerra ci sono sempre situazioni in cui l'uso della forza sembra necessario, ma può anche mettere in pericolo gli spettatori innocenti. Come creare robot killer che prenderanno decisioni giuste in qualsiasi situazione? Come possiamo determinare da soli quale dovrebbe essere la decisione giusta?

Stiamo già riscontrando problemi simili nell’esempio del trasporto autonomo. Diciamo che un cane corre dall'altra parte della strada. Un’auto robot dovrebbe sterzare per evitare di colpire un cane ma mettendo a rischio i suoi passeggeri? E se non fosse un cane, ma un bambino? O un autobus? Ora immagina una zona di guerra.

"Non possiamo essere d'accordo su come scrivere un manuale per un'auto come questa", afferma Garipay. “E ora vogliamo anche passare a un sistema che decida autonomamente se usare o meno la forza letale”.

Crea cose interessanti, non armi

Peter Asaro ha trascorso gli ultimi anni facendo pressioni per la messa al bando dei robot killer nella comunità internazionale come fondatore di Comitato Internazionale sul controllo degli eserciti robotici. Secondo lui è giunto il momento di “un chiaro divieto internazionale sul loro sviluppo e utilizzo”. Questo, dice, consentirà ad aziende come Clearpath di continuare a produrre cose interessanti "senza preoccuparsi che i loro prodotti possano essere utilizzati per violare i diritti delle persone e minacciare i civili".

I missili autonomi interessano i militari perché risolvono un problema tattico. Quando i droni telecomandati operano in ambienti di combattimento, ad esempio, il nemico spesso blocca i sensori o connessione di rete in modo che l'operatore umano non possa vedere cosa sta succedendo o controllare il drone.

Garipay afferma che invece di sviluppare missili o droni in grado di decidere autonomamente quale obiettivo attaccare, i militari dovrebbero spendere soldi per migliorare i sensori e la tecnologia anti-jamming.

“Perché non prendiamo gli investimenti che le persone vorrebbero fare per costruire robot killer autonomi e non li investiamo nel rendere le tecnologie esistenti più efficienti? - lui dice. “Se lanciamo la sfida e superiamo questa barriera, possiamo far sì che questa tecnologia funzioni a beneficio delle persone, non solo dei militari”.

Recentemente anche le conversazioni sui pericoli dell’intelligenza artificiale sono diventate più frequenti. teme che l’intelligenza artificiale in fuga possa distruggere la vita come la conosciamo. Il mese scorso, Musk ha donato 10 milioni di dollari alla ricerca sull’intelligenza artificiale. Una delle domande importanti sull’intelligenza artificiale è come si fonderà con la robotica. Alcuni, come il ricercatore di Baidu Andrew Ng, temono che l’imminente rivoluzione dell’intelligenza artificiale porterà via posti di lavoro alle persone. Altri, come Garipay, temono che possa togliergli la vita.

Garipay spera che i suoi colleghi scienziati e costruttori di macchine riflettano su ciò che stanno facendo. Ecco perché Clearpath Robotics si è schierato dalla parte della gente. "Anche se come azienda non possiamo investire 10 milioni di dollari, possiamo investire la nostra reputazione."

Dmitry Melkin, Pavel e Boris Lonkin non avevano domande su chi portare nella squadra per partecipare alle battaglie tra robot. I ragazzi si conoscevano da Baumanka, poi insieme hanno assemblato e installato centrali elettriche alimentato ad energia solare. Un giorno Dmitrij vide la pubblicità di un concorso di robotica e fece domanda. Gli amici hanno sostenuto l'iniziativa e un mese dopo nel garage c'era il primo robot da combattimento del team Solarbot, Brontosaurus.

Il primo robot è bitorzoluto

Il Brontosaurus pesava un intero centesimo e, come ammettono ora i suoi creatori, non si distingueva né per l'affidabilità né per le soluzioni progettuali ingegnose. Non c'è da stupirsi: è stato raccolto in parte per capriccio, in parte da screenshot poco chiari di video delle competizioni inglesi di Robot Wars.

Dopo Brontosaurus, dopo aver contato e rifatto più volte i componenti principali, Dmitry, Boris e Pavel hanno assemblato il loro secondo robot. Dietro somiglianza esterna con una conchiglia si chiamava Shelby, dall'inglese shell - "shell". Shelby, figlio di errori difficili, ha prima sconfitto tutti alla “Battaglia di robot - 2016” a Perm, organizzata dal MIT di Mosca e dalla società Promobot, e poi, insieme alle vetture di altre due squadre russe , è diventato un partecipante a competizioni internazionali in Cina. I suoi creatori ci raccontano come funziona il robot vincitore e cosa è servito per realizzarlo.


Dmitry, ispiratore ideologico e tuttofare:

“Il nostro più grande orgoglio è il telaio Shelby. Abbiamo armeggiato con il telaio del suo predecessore letteralmente dopo ogni battaglia. Quando abbiamo realizzato la Shelby, il telaio è stato rettificato, ricostruito e riassemblato molte volte, ma ora puoi dimenticartene completamente. Nei progetti futuri dovremo lavorare solo sul mantenimento dell’affidabilità e sull’aumento della potenza. Sarebbe bello, ad esempio, se il nostro nuovo robot potesse muovere non uno, ma due robot nemici contemporaneamente”.

Le catene di Shelby provengono da ciclomotori, le sue ruote provengono da un kart da corsa e i suoi motori elettrici provengono da modellini di auto radiocomandati. Le parti per i robot da combattimento non vengono prodotte, quindi devi cercarle nei mercatini delle pulci e su Internet. Le parti buone sono molto costose e i progettisti tendono a realizzarle da soli.


Boris, designer, specialista della forza:

“Shelby è un tipo da flipper. E' dotata di un sistema pneumatico che spinge con forza il coperchio verso l'alto. Questa è l'arma principale del robot e il suo metodo di stabilizzazione: dopo essersi ribaltato, può girarsi con un sobbalzo e stare in piedi sulle ruote. Ma non potevamo creare alta pressione nel cilindro pneumatico per far sì che il coperchio soffiasse con forza: non avevamo le valvole necessarie. Restava solo una cosa da fare: far funzionare il sistema il più rapidamente possibile. La soluzione si è rivelata semplice: abbiamo eliminato la resistenza idraulica in eccesso e modificato le valvole di fabbrica. In futuro, ovviamente, sarà necessaria una valvola alta pressione. Uno già pronto costa circa 200mila rubli, quindi ora stiamo pensando al nostro design”.


I robot da combattimento non sono un hobby economico: servono almeno 200-300 mila rubli più materiali di consumo, ruote di scorta e tutto ciò che si rompe e viene sostituito in battaglia. E questo non tiene conto del tempo e del lavoro spesi. "Per assemblare un robot, una squadra di tre persone deve smettere di andare al lavoro per due mesi", ridono gli ingegneri di Solarbot. Non sarai in grado di risparmiare nemmeno sull'imbottitura elettronica.

Pavel, programmatore:

“Il bello dell'elettronica Shelby è che ce ne sono pochissimi. Per non prendere in mano un saldatore dopo ogni battaglia, è necessario fornire al robot il minimo necessario di "cervello". Shelby dispone di semplici controller di fabbrica e solo le valvole sono controllate da un piccolo circuito stampato. È molto difficile disabilitarlo. Anche quando in Cina, al posto delle solite batterie al piombo, ci hanno dato delle potenti batterie al litio e i cavi si sono interrotti dopo un paio di minuti, l’elettronica del robot non ha subito danni”.

Robot da combattimento Shelby

Velocità fino a 25 km/h Forza sull'asta del cilindro pneumatico 2 t Potenza del motore 2,2 kW Capacità dello shock pneumatico senza cambiare il cilindro 30−35 Controllo remoto Le regole della "Battaglia di robot" vietano qualsiasi parte staccabile e lamiera, quindi Shelby non spara né agita nulla, e il suo corpo è costituito solo da un profilo metallico.

Il team Solarbot ha costruito un robusto soldato di ferro, ma ha anche un punto di rottura. In Cina, ha sofferto dei coltelli rotanti dei filatori cinesi, a Perm - degli artigli di un robot matanga, che con otto tonnellate di forza taglia un profilo metallico come il burro. Sulle sue costole di ferro - lacerazioni. I creatori stanno preparando per lui il destino di una mostra: parteciperà ai festival (nel prossimo futuro c'è un Geek Picnic estivo), e nell'arena sarà sostituito da un nuovo combattente - anche lui un flipper, solo più veloce, più potente e ancora più affidabile. La forza di sollevamento del coperchio sarà doppia rispetto a quella dello Shelby, la potenza del motore aumenterà da 2,2 a 2,8 kW e la velocità aumenterà. Con il nuovo robot, la squadra russa sogna di andare a Robot Wars in Inghilterra.

Ma il futuro flipper non è il sogno finale di Solarbot. Ora Dmitry sta negoziando con altre squadre e cercando sponsor: se tutto funziona, il primo "megabot" apparirà in Russia, grande e formidabile come i mostri multi-tonnellata giapponesi, americani e cinesi.

Grazie al sostegno di Mosca Istituto di Tecnologia Per la prima volta i russi hanno partecipato al torneo internazionale di robot da combattimento FMB Championship 2017 in Cina. La battaglia è stata ospitata da Shelby, Kazan Destructor e St. Petersburg Energy, che sono passati alle semifinali.

Elon Musk ha recentemente espresso la sua forte opposizione all’utilizzo dell’intelligenza artificiale per creare robot killer. Non stiamo ancora parlando di Terminator, ma di sistemi robotici in grado di svolgere alcuni compiti che solitamente sono di competenza dei soldati. L'interesse dei militari per questo argomento è comprensibile, ma i loro piani di vasta portata spaventano molti.

Ma non solo i guerrieri moderni sognano e vedono mitragliatrici in grado di sostituire dieci o addirittura cento soldati contemporaneamente. Questi pensieri hanno visitato le teste di personaggi di epoche diverse. A volte alcune idee venivano realizzate e sembravano piuttosto buone.

Robot Cavaliere Da Vinci


Leonardo era un genio in quasi ogni campo. È riuscito a raggiungere il successo in quasi tutte le aree in cui ha mostrato interesse. Nel XV secolo creò un cavaliere robot (ovviamente la parola "robot" non era in uso allora).

La macchina era in grado di sedersi, stare in piedi, camminare, muovere la testa e le braccia. Tutto questo è stato realizzato dal creatore del cavaliere meccanico utilizzando un sistema di leve, ingranaggi e ingranaggi.

Il Cavaliere è stato ricreato nella nostra epoca: un prototipo funzionante è stato costruito nel 2002. È stato creato “sulla base” del progetto Da Vinci di Mark Rosheim.

Barca RC Tesla


Nel 1898, l'inventore Nicola Testa mostrò al mondo la prima invenzione del suo genere: controllata a distanza veicolo(piccola barca). La manifestazione si è tenuta a New York. Tesla controllava la barca e questa manovrava esibendosi varie azioni come per magia.

Tesla in seguito tentò di vendere l'altra sua invenzione all'esercito americano: qualcosa come un siluro radiocomandato. Ma per qualche motivo i militari rifiutarono. È vero, ha descritto la sua creazione non come un siluro, ma come un robot, un uomo meccanico capace di esibirsi lavoro difficile invece dei loro creatori.

Carri armati radiocomandati dell'URSS



Sì, ingegneri Unione Sovietica Non erano tagliati per questo. Nel 1940 crearono i radiocomandati veicoli da combattimento sulla base carro armato leggero T-26. Il raggio d'azione del pannello di controllo è superiore a un chilometro.

Gli operatori di questi terminator militari potevano aprire il fuoco con mitragliatrici, usare un cannone e un lanciafiamme. È vero, lo svantaggio di questa tecnologia era quello Feedback era assente. Cioè, l'operatore poteva osservare direttamente le azioni del serbatoio solo a distanza. Naturalmente, l’efficienza delle azioni dell’operatore in questo caso è stata relativamente bassa.

Questo è il primo esempio di robot militare in azione.

Golia


I nazisti crearono qualcosa di simile, ma invece di dotare i carri armati convenzionali di radiocomando, crearono sistemi cingolati in miniatura. Potrebbero essere controllati a distanza. I Goliath furono avviati con esplosivi. L'idea era la seguente: un bambino agile si è diretto verso un carro armato nemico "adulto" e, una volta nelle vicinanze, ha eseguito il comando dell'operatore di distruggere tutto con un'esplosione. I tedeschi hanno creato sia una versione elettrica del sistema che un mini-carro armato con motore combustione interna. In totale sono stati prodotti circa 7.000 sistemi di questo tipo.

Cannoni antiaerei semiautomatici


Questi sistemi furono sviluppati anche durante la seconda guerra mondiale. Il fondatore della cibernetica, Norbert Wiener, ha contribuito alla loro creazione. Lui e il suo team sono stati in grado di creare sistemi antiaerei, che hanno regolato da soli la precisione del fuoco. Erano dotati di una tecnologia che permetteva di prevedere dove sarebbero apparsi successivamente gli aerei nemici.

Armi intelligenti del nostro tempo


Negli anni '50, l'esercito americano cercava di vincere guerra del Vietnam, per la prima volta, ha creato armi a guida laser, nonché dispositivi aerei autonomi, appunto, droni.

È vero, avevano bisogno dell'aiuto umano nella scelta di un obiettivo. Ma era già vicino a quello che è adesso.

Predatore


Probabilmente tutti hanno sentito parlare di questi droni. L'MQ-1 Predator è stato introdotto dalle forze armate statunitensi un mese dopo gli eventi dell'11 settembre. Ora Predator è il drone militare più comune al mondo. Hanno anche parenti più anziani: l'UAV Reaper.

Genieri


Sì, oltre ai robot assassini, ci sono anche i robot genieri. Ora sono molto comuni, hanno iniziato ad essere utilizzati diversi anni fa, in Afghanistan e in altri punti caldi. A proposito, questi robot sono stati sviluppati da iRobot: è l'azienda che crea i robot di pulizia più famosi al mondo. Stiamo ovviamente parlando di Roomba e Scooba. Nel 2004 sono stati prodotti 150 di questi robot (non aspirapolvere, ma genieri) e quattro anni dopo - già 12.000.

Ora i militari sono completamente dispersi. L’intelligenza artificiale (la sua forma debole) promette grandi opportunità. Gli Stati Uniti trarranno pieno vantaggio da queste opportunità. Qui creazione in corso robot killer di nuova generazione, dotati di telecamere, radar, lidar e armi.

Sono loro che spaventano Elon Musk, e con lui tante altre menti brillanti provenienti da vari campi di attività.