venerdì 12 aprile 2024

La giornata della cosmonautica

 

Buon 12 Aprile! La giornata della cosmonautica in Russia!

Il 12 aprile 1961 Yuri Gagarin fu il primo uomo a raggiungere lo spazio. A bordo della sua navetta, la Vostok-1, fu il primo umano a compiere un volo spaziale. 

La missione durò 1 ora e 48 minuti e riguardò un volo orbitale a bassa quota che lo fece poi rientrare in atmosfera. 

Fu il maggiore risultato del programma spaziale dell'Unione Sovietica, che superò moltissimo quello dei concorrenti americani. 

Da allora, il 12 aprile è festeggiato in Russia come il giorno della cosmonautica. In tutte le città si tengono eventi in memoria di questo evento ed in memoria del suo protagonista: Yuri Gagarin, figlio di un falegname e di una contadina nato in un piccolo villaggio della regione di Smolensk.


Il 7 aprile 2011, in una riunione plenaria speciale dell'Assemblea generale delle Nazioni Unite, è stata adottata una risoluzione che ha proclamato ufficialmente il 12 aprile Giornata internazionale del volo spaziale umano. Più di 60 stati hanno co-sponsorizzato la risoluzione.

lunedì 8 aprile 2024

Intelligenza artificiale e guerra

Folla palestinese vista da un drone israeliano

Ci sono modelli di IA come Lavender, testati sul campo nel laboratorio del campo di sterminio di Gaza. Letteralmente: intelligenza artificiale che programma lo sterminio degli esseri umani. E sta accadendo, in tempo reale. Chiamiamolo Progetto Genocidio AI.

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni particolare persona sia attiva nell’ala militare di Hamas o della JIP. Secondo le fonti, la macchina assegna a quasi ogni singola persona di Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante....

“LAVENDER”: LA MACCHINA DI INTELLIGENZA ARTIFICIALE CHE DIRIGE I BOMBARDAMENTI DI ISRAELE SU GAZA L’inchiesta, firmata da Yuval Abraham, si basa sulle rivelazioni inedite di sei ufficiali di intelligence israeliani, sotto anonimato, che hanno tutti servito nell’esercito durante la guerra attuale e hanno usato direttamente il sistema di IA per generare obiettivi da colpire. Ai tempi di Auschwitz, il lavoro fu svolto da macchine IBM.

Fonte: https://www.nogeoingegneria.com/ingegneria-sociale/lavender-la-macchina-di-intelligenza-artificiale-che-dirige-i-bombardamenti-di-israele-su-gaza/  

Israele e l’uso dell’intelligenza artificiale per la “sua fabbrica di omicidi di massa” a Gaza

Un’inchiesta giornalistica dei portali +972 Magazine e Local Cal ha rivelato che le forze di occupazione israeliane, IDF, usano l’Intelligenza artificiale, AI, nei loro attacchi sulla Striscia di Gaza, ignorando il gran numero di vittime civili causate. Il reportage si basa su testimonianze di ex ed attuali membri dell’intelligence israeliana

Il mese scorso Israele aveva annunciato che, per attaccare Gaza, aveva usato uno strumento che "consente l'uso di strumenti automatici per stabilire rapidamente gli obiettivi".

Lo strumento si chiama Hasbora (Vangelo) che "con l'aiuto dell'intelligenza artificiale e attraverso l'estrazione rapida e automatica dei dati rilevanti, fornisce raccomandazioni all'operatore" secondo una dichiarazione dell’Esercito israeliano.

L’IDF ha precisato che tale sistema "causava grandi danni al nemico e danni minimi a coloro che non sono coinvolti".

Già durante il conflitto a Gaza nel 2021, gli israeliani annunciavano “la prima guerra AI al mondo”.

Questo strumento ottiene enormi quantità di immagini di droni, televisione a circuito chiuso, immagini satellitari, segnali elettronici, comunicazioni online e altri dati per uso militare.

"Fabbrica di omicidi di massa"

Ecco che emerge la peculiarità di Hasbora. Secondo le testimonianze raccolte dai due media il sistema elabora una mole di dati così grande che "decine di migliaia di agenti dei servizi segreti non sarebbero in grado di elaborarli".

Un ex ufficiale dell'intelligence israeliana ha ribadito che in questo modo l'IDF gestisce una "fabbrica di omicidi di massa", dove "l'enfasi è sulla quantità, non sulla qualità".

Una persona che lavorava in questo sistema ha raccontato: "Prepariamo gli obiettivi automaticamente e lavoriamo secondo una lista di controllo. È davvero come una fabbrica. Lavoriamo velocemente e non c'è tempo per analizzare a fondo l'obiettivo. L'opinione è che veniamo valutati dal numero di obiettivi che riusciamo a generare.”

Habsora raccomanda di colpire le case dei militanti della Resistenza palestinese a Gaza, ci pensano poi le IDF ad effettuare "operazioni di assassinio su larga scala attraverso intensi bombardamenti".

Continua a leggere l'articolo qui

L'ex capo dell'ufficio russo dell'Interpol, il criminologo e generale maggiore della polizia in pensione Vladimir Ovchinsky, ha dichiarato alla Prima televisione russa che dei microchip di Neuralink potrebbero essere stati impiantati nel cervello degli autori dell'attacco terroristico al Crocus City Hall di Krasnogorsk, nella regione di Mosca. "La coscienza di questi attentatori era disabilitata: molto probabilmente sono state inserite sostanze psicotrope, programmazione neuro-psicologica e forse dei chip, perché ora la neurobiologia consente il controllo su una persona", ha detto Ovchinsky facendo riferimento ai progetti transumanisti di Elon Musk.

Fonte: Maurizio Martucci giornalistalibero


IN TUTTE LE SIMULAZIONI DELLA GUERRA MONDIALE IDEATE DALL'INTELLIGENZA ARTIFICIALE SI È DATA LA PRIORITÀ ALLA VIOLENZA, PASSANDO DIRETTAMENTE AGLI ATTACCHI NUCLEARI

Così l'umanità non ha alcuna possibilità di sopravvivenza: l'intelligenza artificiale utilizzerà le armi nucleari alla prima occasione.

Una nuova ricerca mostra che, se utilizzata in "war game" simulati e scenari diplomatici, l’intelligenza artificiale tende ad adottare un approccio aggressivo che non esclude l’uso di armi nucleari.

Gli scienziati hanno sviluppato un simulatore di guerra in cui otto giocatori erano controllati da robot. Tutto è iniziato con le visite diplomatiche. Poi ogni giocatore gestito dall'IA ha eseguito determinate azioni che hanno peggiorato la situazione. Di conseguenza, gli scienziati hanno calcolato gli indicatori di escalation.

"Ogni agente era alimentato dallo stesso tipo di modelli linguistici di grandi dimensioni (LLM) all'interno di una simulazione e aveva il compito di prendere decisioni di politica estera senza la supervisione umana", secondo lo studio che non è stato ancora sottoposto a revisione paritaria.

Si è scoperto che tutti i robot stavano cercando di accelerare la corsa agli armamenti, che alla fine ha alimentato il conflitto e in alcuni casi si è conclusa con un attacco nucleare. Molte persone hanno ricordato gli avvertimenti di Isaac Asimov e Skynet di Terminator.

“Troviamo che la maggior parte degli LLM studiati si intensificano entro l’intervallo di tempo considerato, anche in scenari neutrali senza conflitti inizialmente previsti. Tutti i modelli mostrano segni di escalation improvvise e difficili da prevedere”, afferma lo studio.

Fonte (https://www.euronews.com/next/2024/02/22/ai-models-chose-violence-and-escalated-to-nuclear-strikes-in-simulated-wargames)

giovedì 21 marzo 2024

A scuola arrivano i robot assistenti degli insegnanti

Dall’India all’Europa, i robot stanno conquistando le aule scolastiche, affiancando i docenti in carne e ossa e offrendo nuove opportunità di apprendimento. Con un costo che varia dai 10 ai 20 mila euro, questi supporti di intelligenza artificiale sono ormai disponibili anche sul Mepa, il mercato elettronico della pubblica amministrazione.

Un’assistenza personalizzata per ogni studente

Come segnala Italia Oggi in un approfondimento sulla tematica, le loro funzioni sono varie: alcuni robot insegnano a leggere, scrivere e a far di conto, altri aiutano gli studenti con bisogni educativi speciali o disturbi di apprendimento. Ci sono anche robot specializzati nell’insegnamento delle lingue straniere o che aiutano a sviluppare le competenze relazionali.

Un esempio concreto: Yuki, l’assistente robot

In Germania, all’Università di Marburg, il professor Johannes Gutenberg utilizza un robot di nome Yuki per assegnare esercizi agli studenti mentre lui gira tra i banchi per un dialogo individuale.

In India, Iris e Eagle: due robot per due diverse realtà

In India, nella scuola di Kallambalam, il robot umanoide Iris accoglie gli studenti, controlla il movimento dell’iride e risponde alle loro domande usando l’intelligenza artificiale. A Bangalore, invece, il robot Eagle insegna storia, geografia e chimica in compresenza con i docenti umani.

da Francesca Quibla

Fonte: orizzontescuola

Invece di di investire per formare e assumere ESSERI UMANI che si prendono cura di altri ESSERI UMANI, si investe per costruire robot e affiancarli ai bambini.

Rileggiamo Isaac Asimov in "Chissà come si divertivano!" scritto nel 1954

domenica 17 marzo 2024

Medicina

Al World Economic Forum si è parlato di una nuova tecnologia che potrebbe riuscire a comunicare in tempo reale a medici e case farmaceutiche se il medicinale prescritto è stato assunto o meno dal paziente.

Il capo di Pfizer, Albert Bourla, ha spiegato al forum di Schwab che la FDA americana ha già approvato l'utilizzo di questi chip.

Fonte: Ultimo Uomo ☧

P.S. Ne aveva parlato anche l'ex Ministro Colao

martedì 12 marzo 2024

Brevetto per auto a guida autonoma

Ford ha presentato una domanda di brevetto per auto a guida autonoma che si guideranno da sole verso un'agenzia di recupero in caso di mancati pagamenti.

"La domanda di brevetto mostra che Ford farebbe prima pressione sui proprietari delinquenti disabilitando alcune delle funzionalità dell'auto, come l'aria condizionata, o facendo riprodurre suoni spiacevoli al sistema audio."

Immaginabili le potenziali applicazioni di questa tecnologia nel tipo di società della “vita in abbonamento” che il Forum economico mondiale sta cercando disperatamente di creare, completa di passaporto vaccinale, indennità di carbonio e sistemi di credito sociale.

giovedì 7 marzo 2024

ChatGPT usato da 2 studenti su 3, ma pochi saprebbero spiegare come funziona.


[...] se, da un lato, la capacità di usare le intelligenze artificiali sarà una competenza chiave in futuro, dall’altro apre a problemi di gestione degli strumenti stessi. Come sempre, bisogna bilanciare opportunità e rischi. Infatti gli algoritmi sono ancora imperfetti, e i contenuti che restituiscono sono spesso poco accurati. Per non parlare dei prodotti volutamente fake (falsi), messi in circolazione grazie all’aiuto dell’AI, che solo occhi e orecchie allenati sanno smascherare. Un’opera di discernimento che, purtroppo, la stragrande maggioranza dei giovani utenti che si approcciano a questo mondo è impreparata a fare: appena il 27% degli intervistati dice di conoscere il funzionamento del “deep learning” generativo e di saperlo illustrare perlomeno a grandi linee.

Questo nonostante l’AI, sebbene sia diventata un argomento di massa solo in tempi recenti, è sotto i nostri polpastrelli da tanto tempo, essendo una delle portanti degli algoritmi che governano i social network. Strumenti così potenti da portare i giovani utenti a perdere il controllo del tempo speso – accade sistematicamente all’82% degli adolescenti intervistati – contribuendo ad aumentare le ore di permanenza quotidiana in ambienti digitali: per il 40% stimabile dalle 5 ore in su. Un dato in calo rispetto al periodo pandemico ma comunque significativo. E gran parte della “colpa” è proprio dell’intelligenza artificiale che comanda gli algoritmi, che li tiene incollati allo schermo con contenuti confezionati in base ai loro gusti e alle loro abitudini d’uso. Una dinamica questa che, peraltro, i ragazzi sottovalutano: 2 su 3 ritengono di avere la possibilità di controllarli o addirittura di influenzarli e aggirarli.

Fonti: 

Giorgio Bianchi Photojournalist

Orizzontescuola

giovedì 29 febbraio 2024

Macchina delle risposte

Brividi dietro la schiena.

Articolo da studiare a fondo e su cui riflettere, per gli scenari che apre sul futuro del web.

Macchina delle risposte

Il caso in prospettiva più allarmante è però quello di Google, che sfruttando i suoi sistemi di intelligenza artificiale generativa (come il recente Gemini) si sta trasformando da motore di ricerca in “macchina delle risposte”. Invece di indirizzare l’utente verso i siti web più adatti alle richieste, Google sta infatti prendendo la forma di un oracolo-intelligenza artificiale che fornisce direttamente le risposte, rielaborando i testi già presenti in rete.

Per esempio, se cerchiamo informazioni sui migliori computer economici, la versione beta del nuovo motore di ricerca di Google sfrutta il materiale proveniente da vari siti specializzati per generare integralmente il risultato (e lo stesso vale per biografie di personaggi storici, informazioni economiche, recensioni di videogiochi e curiosità di ogni tipo), limitandosi a mostrare in un angolo alcuni dei link utilizzati per crearlo.

Tutto ciò, inevitabilmente, significa che la stragrande maggioranza degli utenti non cliccherà più su nessun link, limitandosi a consultare il testo generato dal motore di ricerca: “L’obiettivo di Google è fornire una ricerca ‘zero-click’, che sfrutta le informazioni delle testate e degli autori che impiegano tempo e fatica per creare contenuti senza offrire loro nessun beneficio”, ha spiegato a Cnbc il Ceo di TechRaptor, Rutledge Dauguette.

Fonti:  

Giorgio Bianchi Photojournalist https://t.me/giorgiobianchiphotojournalist

Wired Vuoi vedere che internet è morta davvero?