martedì 23 aprile 2024

Lavori da uomini

In una fiera a Chicago, un caricatore robotizzato non poteva resistere a 10 ore di funzionamento continuo. 

venerdì 12 aprile 2024

La giornata della cosmonautica

 

Buon 12 Aprile! La giornata della cosmonautica in Russia!

Il 12 aprile 1961 Yuri Gagarin fu il primo uomo a raggiungere lo spazio. A bordo della sua navetta, la Vostok-1, fu il primo umano a compiere un volo spaziale. 

La missione durò 1 ora e 48 minuti e riguardò un volo orbitale a bassa quota che lo fece poi rientrare in atmosfera. 

Fu il maggiore risultato del programma spaziale dell'Unione Sovietica, che superò moltissimo quello dei concorrenti americani. 

Da allora, il 12 aprile è festeggiato in Russia come il giorno della cosmonautica. In tutte le città si tengono eventi in memoria di questo evento ed in memoria del suo protagonista: Yuri Gagarin, figlio di un falegname e di una contadina nato in un piccolo villaggio della regione di Smolensk.


Il 7 aprile 2011, in una riunione plenaria speciale dell'Assemblea generale delle Nazioni Unite, è stata adottata una risoluzione che ha proclamato ufficialmente il 12 aprile Giornata internazionale del volo spaziale umano. Più di 60 stati hanno co-sponsorizzato la risoluzione.

lunedì 8 aprile 2024

Intelligenza artificiale e guerra

Folla palestinese vista da un drone israeliano

Ci sono modelli di IA come Lavender, testati sul campo nel laboratorio del campo di sterminio di Gaza. Letteralmente: intelligenza artificiale che programma lo sterminio degli esseri umani. E sta accadendo, in tempo reale. Chiamiamolo Progetto Genocidio AI.

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni particolare persona sia attiva nell’ala militare di Hamas o della JIP. Secondo le fonti, la macchina assegna a quasi ogni singola persona di Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante....

“LAVENDER”: LA MACCHINA DI INTELLIGENZA ARTIFICIALE CHE DIRIGE I BOMBARDAMENTI DI ISRAELE SU GAZA L’inchiesta, firmata da Yuval Abraham, si basa sulle rivelazioni inedite di sei ufficiali di intelligence israeliani, sotto anonimato, che hanno tutti servito nell’esercito durante la guerra attuale e hanno usato direttamente il sistema di IA per generare obiettivi da colpire. Ai tempi di Auschwitz, il lavoro fu svolto da macchine IBM.

Fonte: https://www.nogeoingegneria.com/ingegneria-sociale/lavender-la-macchina-di-intelligenza-artificiale-che-dirige-i-bombardamenti-di-israele-su-gaza/  

Israele e l’uso dell’intelligenza artificiale per la “sua fabbrica di omicidi di massa” a Gaza

Un’inchiesta giornalistica dei portali +972 Magazine e Local Cal ha rivelato che le forze di occupazione israeliane, IDF, usano l’Intelligenza artificiale, AI, nei loro attacchi sulla Striscia di Gaza, ignorando il gran numero di vittime civili causate. Il reportage si basa su testimonianze di ex ed attuali membri dell’intelligence israeliana

Il mese scorso Israele aveva annunciato che, per attaccare Gaza, aveva usato uno strumento che "consente l'uso di strumenti automatici per stabilire rapidamente gli obiettivi".

Lo strumento si chiama Hasbora (Vangelo) che "con l'aiuto dell'intelligenza artificiale e attraverso l'estrazione rapida e automatica dei dati rilevanti, fornisce raccomandazioni all'operatore" secondo una dichiarazione dell’Esercito israeliano.

L’IDF ha precisato che tale sistema "causava grandi danni al nemico e danni minimi a coloro che non sono coinvolti".

Già durante il conflitto a Gaza nel 2021, gli israeliani annunciavano “la prima guerra AI al mondo”.

Questo strumento ottiene enormi quantità di immagini di droni, televisione a circuito chiuso, immagini satellitari, segnali elettronici, comunicazioni online e altri dati per uso militare.

"Fabbrica di omicidi di massa"

Ecco che emerge la peculiarità di Hasbora. Secondo le testimonianze raccolte dai due media il sistema elabora una mole di dati così grande che "decine di migliaia di agenti dei servizi segreti non sarebbero in grado di elaborarli".

Un ex ufficiale dell'intelligence israeliana ha ribadito che in questo modo l'IDF gestisce una "fabbrica di omicidi di massa", dove "l'enfasi è sulla quantità, non sulla qualità".

Una persona che lavorava in questo sistema ha raccontato: "Prepariamo gli obiettivi automaticamente e lavoriamo secondo una lista di controllo. È davvero come una fabbrica. Lavoriamo velocemente e non c'è tempo per analizzare a fondo l'obiettivo. L'opinione è che veniamo valutati dal numero di obiettivi che riusciamo a generare.”

Habsora raccomanda di colpire le case dei militanti della Resistenza palestinese a Gaza, ci pensano poi le IDF ad effettuare "operazioni di assassinio su larga scala attraverso intensi bombardamenti".

Continua a leggere l'articolo qui

L'ex capo dell'ufficio russo dell'Interpol, il criminologo e generale maggiore della polizia in pensione Vladimir Ovchinsky, ha dichiarato alla Prima televisione russa che dei microchip di Neuralink potrebbero essere stati impiantati nel cervello degli autori dell'attacco terroristico al Crocus City Hall di Krasnogorsk, nella regione di Mosca. "La coscienza di questi attentatori era disabilitata: molto probabilmente sono state inserite sostanze psicotrope, programmazione neuro-psicologica e forse dei chip, perché ora la neurobiologia consente il controllo su una persona", ha detto Ovchinsky facendo riferimento ai progetti transumanisti di Elon Musk.

Fonte: Maurizio Martucci giornalistalibero


IN TUTTE LE SIMULAZIONI DELLA GUERRA MONDIALE IDEATE DALL'INTELLIGENZA ARTIFICIALE SI È DATA LA PRIORITÀ ALLA VIOLENZA, PASSANDO DIRETTAMENTE AGLI ATTACCHI NUCLEARI

Così l'umanità non ha alcuna possibilità di sopravvivenza: l'intelligenza artificiale utilizzerà le armi nucleari alla prima occasione.

Una nuova ricerca mostra che, se utilizzata in "war game" simulati e scenari diplomatici, l’intelligenza artificiale tende ad adottare un approccio aggressivo che non esclude l’uso di armi nucleari.

Gli scienziati hanno sviluppato un simulatore di guerra in cui otto giocatori erano controllati da robot. Tutto è iniziato con le visite diplomatiche. Poi ogni giocatore gestito dall'IA ha eseguito determinate azioni che hanno peggiorato la situazione. Di conseguenza, gli scienziati hanno calcolato gli indicatori di escalation.

"Ogni agente era alimentato dallo stesso tipo di modelli linguistici di grandi dimensioni (LLM) all'interno di una simulazione e aveva il compito di prendere decisioni di politica estera senza la supervisione umana", secondo lo studio che non è stato ancora sottoposto a revisione paritaria.

Si è scoperto che tutti i robot stavano cercando di accelerare la corsa agli armamenti, che alla fine ha alimentato il conflitto e in alcuni casi si è conclusa con un attacco nucleare. Molte persone hanno ricordato gli avvertimenti di Isaac Asimov e Skynet di Terminator.

“Troviamo che la maggior parte degli LLM studiati si intensificano entro l’intervallo di tempo considerato, anche in scenari neutrali senza conflitti inizialmente previsti. Tutti i modelli mostrano segni di escalation improvvise e difficili da prevedere”, afferma lo studio.

Fonte (https://www.euronews.com/next/2024/02/22/ai-models-chose-violence-and-escalated-to-nuclear-strikes-in-simulated-wargames)