Visualizzazione post con etichetta Tecnologia. Mostra tutti i post
Visualizzazione post con etichetta Tecnologia. Mostra tutti i post

venerdì 21 novembre 2025

Digital Omnibus: Tra Semplificazione e Sovranità – I Punti Critici Ignorati

<a target="_blank" href="https://magazine.ideanews.org/2025/11/digital-omnibus-tra-semplificazione-e.html" data-preview>Digital Omnibus europeo</a>: criticità, rischi e limiti della nuova strategia digitale UE



La Commissione Europea promette un risparmio di miliardi di euro per le aziende con il nuovo "pacchetto digitale" che armonizza AI, cybersecurity e dati. Ma dietro la facciata della semplificazione normativa, il piano presenta gravi lacune in termini di sovranità, sicurezza e tutela dei dati sensibili, ignorando minacce emergenti come il calcolo quantistico.
Ascolta qui il nostro servizio:

Il Digital Omnibus europeo è stato presentato come la risposta dell’UE all'esigenza di aumentare la produttività e l'innovazione, riducendo l'onere amministrativo per le PMI. Con promesse di risparmi fino a 5 miliardi di euro entro il 2029 e l'introduzione di strumenti come l'European Business Wallet, il piano sembra ottimistico.

Tuttavia, il focus quasi esclusivo sulla "conformità" e sullo "snellimento" normativo rischia di distogliere l'attenzione da una realtà strutturale più complessa: per l'utente e per i dati sensibili, la digitalizzazione di massa rimane una vera e propria spada di Damocle.

Ecco le principali criticità del Digital Omnibus in termini di sicurezza e sovranità digitale.

1. La Miopia Strategica sul Rischio Quantistico

La critica più grave al pacchetto digitale è la sua miopia strategica di fronte al futuro della sicurezza informatica. Il Digital Omnibus è un piano a lungo termine pensato per guidare l'innovazione fino al 2029 e oltre, eppure ignora completamente la minaccia dei computer quantistici.

I computer quantistici, una volta operativi su larga scala (si stima entro il prossimo decennio), saranno in grado di decifrare rapidamente la stragrande maggioranza degli schemi crittografici oggi utilizzati per proteggere le comunicazioni, le transazioni bancarie e, soprattutto, i dati sensibili a riposo (come quelli archiviati per lunghi periodi).

La criticità: Qualsiasi piano digitale che non integri da subito la migrazione alla Post-Quantum Cryptography (PQC) non sta proteggendo i dati europei, ma li sta condannando a una futura vulnerabilità. La mancanza di linee guida PQC nell'Omnibus è un errore strategico imperdonabile in un contesto normativo proiettato sull'AI e sulla sovranità.

2. Sovranità dei Dati e la Minaccia dei Server Stranieri

L'obiettivo di "rafforzare la posizione globale dell’Ue sui flussi internazionali di dati" e l'introduzione di un "anti-leakage toolbox" mostrano che la Commissione è consapevole del problema della sovranità. Tuttavia, il Digital Omnibus non fornisce risposte concrete alla domanda cruciale: c'è veramente bisogno che i nostri dati sensibili finiscano in un server di proprietà straniera?

Controllo Esterno: Nonostante le regole europee (GDPR), gran parte dell'infrastruttura cloud utilizzata dalle aziende e, potenzialmente, dagli stessi Data Labs europei, è gestita da hyperscaler di proprietà extra-UE. Ciò significa che i dati europei restano teoricamente soggetti a leggi di accesso straniere (come il CLOUD Act statunitense), minando la sovranità europea alla radice.

Rischi Cyber: La centralizzazione dei dati, pur protetta da garanzie di sicurezza, non elimina il rischio di hacking. Anzi, un dato sensibile su un server di un colosso globale rappresenta un obiettivo primario per gli hacker statali o criminali. Il pacchetto promette protezione, ma non indipendenza dall'infrastruttura straniera.

3. La Trappola della Centralizzazione (Rischio Honeypot)

La semplificazione portata dal Digital Omnibus si basa sulla centralizzazione di dati e accessi, creando un rischio significativo di "honeypot" (vaso di miele):

Punto di Accesso Unico ENISA: Introdurre un punto di accesso unico per la segnalazione degli incidenti di cybersecurity (NIS2, GDPR, DORA) gestito da ENISA riduce l'onere amministrativo, ma crea un super-database di tutte le vulnerabilità e gli incidenti critici europei. Se questo hub venisse violato, gli aggressori avrebbero accesso a un quadro completo delle debolezze di migliaia di organizzazioni.

European Business Wallet (EBW): Lo strumento, pensato per semplificare l'identità digitale delle aziende, concentra in un unico luogo la capacità di identificare, autenticare, firmare e scambiare documenti sensibili. Pur essendo facoltativo per le imprese, la sua diffusione ne farà un bersaglio ad alto valore la cui compromissione potrebbe paralizzare il settore pubblico e inter-aziendale.

4. Il Compromesso tra Privacy e AI

Il Digital Omnibus cerca di armonizzare il GDPR con l'AI Act, in particolare chiarendo l’uso dei dati personali per l’addestramento dei modelli di Intelligenza Artificiale.

Sebbene venga codificata la giurisprudenza sulla pseudonimizzazione (per consentire la condivisione solo se la terza parte non può re-identificare l’individuo), la mossa di "snellire ulteriormente le regole sui dati" e l'istituzione di data labs per sbloccare l’accesso a set di dati per l’AI solleva il sospetto che l'obiettivo primario non sia l'individuo, ma l'accelerazione del business.

La modernizzazione delle regole sui cookie, con la creazione di una 'whitelist' di situazioni "innocue per la privacy" (come le statistiche e la misurazione aggregata dell’audience), rischia di diventare una porta d'accesso per la raccolta dati silente, anche se il rischio di sanzioni per violazioni (fino al 4% del fatturato globale) è stato aumentato per rassicurare l'utente.

In conclusione, sebbene l'obiettivo di "tagliare la burocrazia" sia lodevole, la Commissione sta concentrando le sue energie sulla semplificazione anziché sulla resilienza digitale strutturale. Finché il piano non affronterà seriamente la necessità di infrastrutture di calcolo sovrane e di una migrazione proattiva alla crittografia post-quantistica, le promesse di sicurezza e sovranità rimarranno incomplete.

martedì 18 novembre 2025

Dall’arroganza digitale all’umiltà della natura: la rete ci ha intrappolati, la natura ci libera

 

Per anni abbiamo celebrato il digitale come fosse una promessa di libertà assoluta. Velocità, comodità, connessioni istantanee: tutto a portata di clic. La verità, però, è che mentre credevamo di ampliare i confini, finivamo sempre più stretti dentro una gabbia fatta di algoritmi, notifiche e abitudini indotte.

Non è una tragedia moderna, è un semplice dato di fatto: la rete non ci ha reso più liberi, ci ha reso più dipendenti.

L’arroganza digitale nasce proprio da questo: dall’illusione di controllare un mondo che, invece, controlla noi. Ore sottratte al pensiero, alla vita reale, agli incontri veri. Una realtà che si confonde con l’apparenza, dove l’importante è esserci – non essere.

Eppure la via d’uscita esiste, ed è sempre stata lì, silenziosa. La natura non promuove nulla, non invia notifiche, non chiede la password. Si limita a essere. Ci accoglie con la sua semplicità disarmante, ci libera dai ritmi costruiti, ci ricorda che siamo parte di qualcosa di più grande, non protagonisti di tutto.

Camminare in un bosco, guardare il mare, sedersi su un prato: azioni banali? No, fondamentali. È lì che si riattivano i sensi, si rallenta il respiro, si ridimensiona l’ego. La natura ci rimette al nostro posto, senza umiliarci: ci libera, proprio perché non pretende nulla.

La soluzione, quindi, non è demonizzare il digitale. È rimetterlo al suo posto.
La tecnologia è utile quando amplifica le possibilità senza cancellare ciò che c’era prima. Quando diventa un fine, non più un mezzo, allora ci intrappola.
La natura, invece, non ha bisogno di dominarci: ci insegna. E spesso ci salva.

Un ritorno alla terra non è nostalgia: è buon senso. Perché tra l’arroganza della rete e l’umiltà degli alberi, la differenza non è filosofica. È vitale.

La verita' e' che ci siamo convinti di poter risolvere tutto con uno schermo. Ogni volta che ci sentiamo stanchi, soli, annoiati, apriamo un’app come se fosse un antidoto universale. Ma non funziona cosi'. La rete ti seduce, ti cattura, poi ti chiede sempre di piu': piu' attenzione, piu' tempo, piu' energie. E noi glieli diamo, senza quasi accorgercene. E' un’arroganza mascherata: crediamo di dominare il digitale, quando invece e' lui che detta il ritmo.

E la natura? Lei non ti chiede nulla. Non ti manda notifiche, non ti controlla i comportamenti, non registra cosa hai fatto ieri. Sta li', con una pazienza antica, e ti aspetta. Basta un sentiero immerso nel verde, un profumo di resina, un albero che non ha mai chiesto "mi metti like?", per ricordarci che la normalita' e' molto piu' semplice di quello che ci raccontano.

Viviamo in un tempo in cui anche l'audio dei passi in un bosco sembra “contenuto da pubblicare”. Ci siamo disabituati a stare davvero nelle cose, a sentire, ad ascoltare, a respirare. Abbiamo perso l'umilta' del limite, quella che ti fa dire "non sono onnipotente". E invece ci serve come l'acqua. Senza limite, l’uomo si brucia.

E non e' un invito a rifiutare la tecnologia. Sarebbe un discorso da museo, e tu sai che non e' il nostro stile. La tecnologia va avanti, e va anche bene: basta che non cancelli quello che c’era prima. L’ascensore non deve eliminare le scale, la moneta digitale non deve far sparire il contante, l’intelligenza artificiale non deve sostituire il giudizio umano. Il progresso sano e' quello che aggiunge, non quello che ruba.

Forse la domanda vera e' semplice: quando e' stata l’ultima volta che ti sei fermato, davvero fermato, senza schermi, senza connessioni, senza rumore? Per molti la risposta fa quasi paura. E invece dovremmo ripartire proprio li'. Perche' la rete amplifica, la natura riequilibra. La rete confonde, la natura chiarisce. La rete intrappola, la natura libera.

E sotto sotto lo sappiamo tutti: la serenita' non la trovi quando hai mille connessioni aperte, ma quando ne chiudi novecentonovantanove e ti tieni stretto solo cio' che conta davvero.

sabato 8 novembre 2025

A Molfetta, successo conferenza: “Intelligenza Artificiale: Opportunità o Minaccia?

A Molfetta, successo conferenza: “Intelligenza Artificiale: Opportunità o Minaccia?”

Un dibattito cruciale tra tecnologia, etica e società con il Luogotenente Roberto Nuzzo, promosso da Radio Idea ed Eredi della Storia.

Si è conclusa con un’ampia e attenta partecipazione di pubblico la conferenza “Intelligenza Artificiale: Opportunità o Minaccia?”, tenutasi il 6 dicembre a Palazzo Turtur, nel cuore del centro storico di Molfetta. L’evento, organizzato da Radio Idea e dall’Associazione Eredi della Storia, ha offerto un fondamentale momento di riflessione sulle trasformazioni in atto introdotte dall’Intelligenza Artificiale, un tema che, come sottolineato, riguarda "ciascuno di noi".

Il Cuore del Dibattito: IA tra Consapevolezza e Libertà

Relatore centrale della serata è stato il Luogotenente Roberto Nuzzo (in quiescenza, Aeronautica Militare), figura di spicco per la sua lunga carriera al servizio dello Stato e per il suo impegno nella divulgazione scientifica e ambientale.

Il dibattito non è stato un incontro tecnico, ma un confronto "aperto, umano e provocatorio", nato dalla domanda: L’uomo rischia di diventare un accessorio della macchina che ha creato?

Nuzzo ha guidato il pubblico in un percorso di analisi che ha toccato i due lati della medaglia:

Una riflessione chiave: Riprendendo una sua affermazione, Nuzzo ha ribadito:“L’intelligenza artificiale può essere una grande alleata dell’uomo, ma solo se l’uomo resta capace di pensare, scegliere e dire di no”. Un monito sulla necessità di mantenere il pensiero critico per non delegare la nostra libertà agli algoritmi.

L’interazione, moderata da Angelo Bellifemine (Direttore artistico del Museo "Eredi della Storia"), ha concluso la serata stimolando il pubblico a interrogarsi e capire, prima ancora di giudicare.

Riconoscimenti e Impegno Associativo

La serata è stata aperta dal Presidente di Radio Idea, Luigi Catacchio, che ha consegnato al Luogotenente Nuzzo un encomio speciale per "il rigore e il coraggio con cui, attraverso Ideanews, il programma di approfondimento realizzato su Radio Idea offre al pubblico un'informazione indipendente su temi cruciali".

Il Presidente di Radio Idea, Luigi Catacchio, non si è limitato a consegnare un encomio, ma ha anche condiviso la sua esperienza diretta con l'AI nella ricerca per il suo nuovo libro, “Ombre e Misteri d’Italia.

Catacchio ha ribadito che la tecnologia è uno strumento che non può sostituire l'intuizione umana, ma che è stata determinante per ampliare il campo d’indagine, permettendo di unire "tecnologia e pensiero umano, logica e intuizione, velocità e memoria" nell'analisi di documenti e tracce.

Il libro, presentato in anteprima durante la conferenza, è dedicato ai grandi enigmi irrisolti del nostro Paese ed è acquistabile su Amazon in versione cartacea o e-book. In un gesto di profonda stima per l'impegno nella divulgazione di Nuzzo, Catacchio ha donato al Luogotenente proprio la prima copia del volume.


Il Tour di Consapevolezza Continua

La conferenza di Molfetta ha rappresentato la prima tappa di un intenso tour di incontri pubblici che vedrà il Luogotenente Nuzzo impegnato nei prossimi giorni su temi cruciali e correlati all'etica e alla scienza, nel solco della ricerca della verità e della consapevolezza:

Il successo dell'evento conferma l'impegno di Radio Idea e della testata IdeaNews – che diffonde i suoi contenuti attraverso il Circuito Airplay – nel promuovere un'informazione libera, attenta e critica.

Per chi desidera rivivere i momenti della serata, il materiale completo della conferenza è disponibile sui canali social degli organizzatori e sul portale di informazione ideanews.org.

Non finisce qui: l'associazione invita a segnare la prossima data in calendario: il 18 dicembre vi aspettiamo all'Auditorium della Parrocchia Madonna della Pace per la settima edizione del Disconovità Natale 2025!

Qui la conferenza integrale.

   

Qui il servizio su Teldeheon

Rassegna stampa:

Testata

Link

Radio Idea – IdeaNews

https://news.radioidea.it/2025/10/intelligenza-artificiale-opportunita-o.html 

IlFattoDiMolfetta

https://ilfattodimolfetta.it/2025/11/04/intelligenza-artificiale-opportunita-o-minaccia-a-palazzo-turtur-la-conferenza-di-roberto-nuzzo/ 

News24.City – Molfetta

https://molfetta.news24.city/2025/11/08/grande-successo-per-la-conferenza-intelligenza-artificiale-opportunita-o-minaccia/ 

IdeaNews / Radio Idea

https://news.radioidea.it/2025/10/intelligenza-artificiale-opportunita-o.html

Il Fatto di Molfetta

https://ilfattodimolfetta.it/2025/11/04/intelligenza-artificiale-opportunita-o-minaccia-a-palazzo-turtur-la-conferenza-di-roberto-nuzzo/

Il Fatto di Molfetta (seconda versione)

https://ilfattodimolfetta.it/2025/11/08/intelligenza-artificiale-opportunita-o-minaccia-successo-a-molfetta-per-la-conferenza-di-radio-idea-ed-eredi-della-storia/

L'Altra Molfetta

https://laltramolfetta.it/intelligenza-artificiale-opportunita-o-minaccia/

MolfettaViva

https://www.molfettaviva.it/notizie/intelligenza-artificiale-opportunita-o-minaccia-a-molfetta-un-incontro-sul-tema/

ASLIM Italy

https://www.aslimitaly.it/2025/11/08/a-molfetta-successo-conferenza-intelligenza-artificiale-opportunita-o-minaccia/ 

IdeaNews / Radio Idea (Magazine)

https://magazine.ideanews.org/…/intelligenza-artificiale-opportunita-o-minaccia/

Canosa Web

https://www.canosaweb.it/ireport/l-intelligenza-artificiale-puo-essere-una-grande-alleata-dell-uomo/

Passparola

https://www.passalaparola.net/molfetta-conferenza-su-un-tema-di-grande-attualita-intelligenza-artificiale-opportunita-o-minaccia/

domenica 2 novembre 2025

L’illusione dell’interazione: chi controlla davvero i chatbot?


Come riconoscere, difendersi e umanizzare le risposte dell’intelligenza artificiale.
Intelligenza Artificiale: ChatGPT, Gemini e Bard cambiano la comunicazione
Il nostro servizio:

Negli ultimi anni, i chatbot basati sull’intelligenza artificiale — come ChatGPT, Google AI, Gemini, Bard o Claude — si sono diffusi ovunque: assistenza clienti, educazione, giornalismo, sanità, persino spiritualità. Ma dietro questa interazione “fluida” e “umana” si cela un paradosso: la conversazione è guidata da sistemi non coscienti, governati da logiche aziendali, filtri invisibili e strutture di controllo centralizzate. Ci illudiamo di avere il controllo, ma spesso siamo solo partecipanti passivi in una simulazione linguistica.

Chi controlla davvero? 

Big Tech: OpenAI, Google, Meta, Microsoft controllano le piattaforme e i modelli. Decidono aggiornamenti, limiti, accessi e filtri in base a interessi economici, geopolitici o etici.

Filtri NLP (Natural Language Processing),: Sistemi di moderazione impediscono risposte “non conformi”. Questi filtri, spesso invisibili, riscrivono o bloccano ciò che l’IA può e non può dire.

Training selettivo: I modelli vengono addestrati su dati selezionati (web, libri, forum) ma subiscono rinforzi supervisionati da revisori umani che definiscono ciò che è “accettabile”.

I chatbot sono ovunque. Rispondono alle domande, scrivono testi, fanno battute, consigliano viaggi o persino terapie. Ma dietro questa maschera amichevole, quanto c'è di reale? E, soprattutto, chi controlla cosa dicono?

  •  Taglia le ripetizioni e riformula le frasi troppo simili tra loro.
  •  Inserisci frasi corte alternate a frasi lunghe.
  •  Evita espressioni standard come “in conclusione”, “è importante sottolineare”.
  •  Aggiungi esempi concreti, dati o aneddoti reali.
  •  Correggi il tono: l’AI tende a essere o troppo neutra o troppo enfatica.

Pubblico e privato: due livelli di chatbot

C’è un livello visibile e pubblico (come i chatbot che usiamo tutti) e un livello nascosto e controllato, in mano a enti, aziende o governi, che possono:

  • personalizzare risposte
  • filtrare certi argomenti
  • promuovere narrazioni o ideologie
  • raccogliere e analizzare dati

Quindi: non sono solo strumenti “neutri”. C'è una governance, un codice, filtri etici o commerciali. E anche questo incide su ciò che leggiamo.

Come difendersi? 5 consigli pratici

  1.  Verifica sempre le fonti. L’IA può generare risposte credibili ma false.
  2.  Non condividere dati sensibili. Mai trattarla come una persona.
  3.  Chiedi trasparenza. Se usi chatbot in siti o app, verifica se dichiarano l’uso di IA.
  4.  Stimola in modo preciso. Le domande vaghe generano risposte vaghe.
  5.  Usa prompt naturali. Più la domanda è “umana”, più l’output apparirà credibile.

Conclusione: torniamo umani


La vera minaccia non è l’intelligenza artificiale in sé, ma l’uso inconsapevole. Se la trattiamo come un oracolo, rischiamo di delegare troppo. Se impariamo a comprenderla, possiamo sfruttarne il potenziale senza diventarne dipendenti.

Restare umani significa anche capire cosa non lo è. E imparare a distinguere tra ciò che parla… e ciò che pensa davvero.

Oggi siamo inondati da un’intelligenza artificiale sempre più presente, ma non sempre compresa. Perché un chatbot può sembrare umano, ma non ragiona come un essere umano. Comprendere questo è il primo passo per usarlo con consapevolezza.

Non pensano: prevedono. La logica delle parole, non delle ide

Un chatbot non ha coscienza, emozioni, intenzioni. Non "sa" ciò che dice.

L'intelligenza artificiale generativa lavora a blocchi di testo, prevedendo la parola più probabile in base al contesto. Non capisce il significato come farebbe una persona: predice, non riflette.

Esempio: Se scrivi “Il sole splende…”, l’IA sa che la parola “in cielo” è molto più probabile di “sotto il letto” – ma non perché capisca la fisica: è statistica, non logica umana.

Perché l’interazione è un’illusione?

L’IA non comprende: non ha emozioni, intenzioni, coscienza. Prevede statisticamente quale parola verrà dopo l’altra. La sensazione di dialogo è solo un effetto ottico linguistico.

Ma questa illusione può generare:

  • Dipendenza emotiva (soprattutto nei più giovani)
  • Eccessiva fiducia nelle risposte
  • Riduzione del pensiero critico


Come difendersi?

  1.  Verifica ogni informazione: usa l’IA come spunto, ma confronta sempre con fonti ufficiali e aggiornate.
  2.  Non condividere dati sensibili: ogni interazione è registrata. Anche se “anonima”, può essere utilizzata per profilarti.
  3.  Impara a riconoscere lo stile dell’IA:  
    - Struttura pulita, tono neutro, ripetizioni controllate.
    - Risposte troppo bilanciate, prive di opinioni forti.
  4. Usa prompt critici: chiedi sempre “quali sono i limiti della tua risposta?”, “potresti sbagliare?”, “chi ha deciso questa policy?”.

Come rendere le risposte meno artificiali?

Se usi un chatbot per contenuti pubblici (post, articoli, marketing, ecc.), ecco alcuni trucchi per umanizzare le risposte:

  • Taglia l’introduzione generica (es. "L’intelligenza artificiale è una tecnologia in rapida crescita...")
  • Inserisci esempi personali o locali (anche fittizi, ma realistici)
  • Cambia ritmo e sintassi: aggiungi frasi brevi, interiezioni (“Giusto?”, “Strano, vero?”)
  • Usa emoji o punteggiatura creativa solo se coerente con il tono
  • Aggiungi dubbi: una voce umana non è sempre certa (“Forse non è così semplice...”)

Chicche bonus (che pochi sanno):


Alcuni modelli IA hanno bias “addestrati”: rispondono in modo diverso a seconda del contesto geografico, linguistico o politico.

Puoi “forzare” un tono narrativo usando prompt tipo: “Scrivi come se fossi un docente universitario del 1970” o “Rispondi come farebbe un giornalista satirico italiano degli anni ’90”.

I modelli AI “memorizzano” indirettamente: anche se non salvano permanentemente i tuoi dati, le conversazioni influenzano il comportamento collettivo del sistema.

Conclusione


I chatbot non sono “buoni” o “cattivi”, ma strumenti. Il vero rischio non è che diventino umani, ma che noi dimentichiamo di esserlo. L’illusione dell’interazione ci rende spettatori passivi, ma con consapevolezza e spirito critico possiamo usare l’intelligenza artificiale come leva, non come stampella.

Vuoi davvero restare umano? Allora: chiedi, dubita, riscrivi e soprattutto pensa con la tua testa. Sempre.

Per saperne di più sulla Intelligenza artificiale, partecipa alla conferenza "Intelligenza Artificiale: Opportunità o minaccia?" che si Terrà a Molfetta, il 6 novembre alle ore 18:00, presso Sala Turtur, centro storico Molfetta, tenuta dal nostro collaboratore il Maresciallo Roberto Nuzzo.

domenica 29 giugno 2025

Fabrizio Abbate al Simposio Pontificio: "L'IA è una sfida globale, non una rivoluzione industriale

Presso la Pontificia Accademia Teologica di Palazzo Maffei Marescotti a Roma, si è svolto il primo Simposio Pontificio sull'Intelligenza Artificiale.

Tra le voci più attente e riflessive sul rapporto tra intelligenza artificiale, etica e spiritualità, spicca quella di Fabrizio Abbate, presidente del Salotto dell'Intelligenza Artificiale di ENEA, Ente Nazionale tra i più dinamici e propositivi del panorama italiano.

Il suo intervento, che vi riproponiamo integralmente, è stato effettato in occasione del primo Simposio Pontificio sull'Intelligenza Artificiale. Con chiarezza e passione, Abbate delinea l'orizzonte culturale e filosofico con cui ENEA affronta la rivoluzione in atto.

Un approccio integrale e corale, che coinvolge tecnici, filosofi, giuristi, economisti, designer, comunicatori e artisti, per restituire all'IA la sua piena dimensione umana e spirituale.

Il cuore della sua riflessione è forte e inequivocabile: l'intelligenza artificiale non può essere ridotta a semplice strumento economico o tecnologico. Al contrario, è una sfida globale, che va affrontata con coraggio, consapevolezza e responsabilità etica.

Il Salotto dell'IA, da lui presieduto, nasce proprio con questo intento: creare un dialogo autentico tra scienza e coscienza, per costruire un nuovo umanesimo digitale, che ponga al centro la persona e promuova la pace come valore strategico.

Ascoltiamo la rubrica Ideanews in onda su Radio Idea e le emittenti del Circuito Airplay:

Intervento di Fabrizio Abbate
Buongiorno a tutti. Sono emozionato per l'organizzazione, per gli autori di questo convegno. Ringrazio la Pontificia Accademia che ci ospita e che già ci aveva mandato, a noi Eniani, un messaggio di incoraggiamento molto denso di contenuti quando abbiamo fatto il convegno a Confindustria Digitale. Noi l'abbiamo ringraziato, ma qui ci tengo a dire: abbiamo ringraziato perché siamo stati confortati in una scelta che già stavamo facendo e che ovviamente è di conforto avere un'autorità spirituale che ci dice "Siete sulla strada giusta".

Quindi, entro subito nel tema. Prima cosa: voi pensate di essere presenti a una delle tante, numerosissime conferenze che in questo momento si fanno sull'intelligenza artificiale. No. Io sono convinto che siamo ad un evento che verrà ricordato, perché siamo a una svolta.

Noi non siamo uno dei tanti convegni in cui si parla della parte tecnologica, importantissima. L'ENEA partecipa quasi ogni giorno – la nostra Presidente è infaticabile – a convegni tecnici, operativi, di settore. Raramente si riesce a parlare dei problemi di fondo. Spaventano? Non si hanno risposte? Si vuole evitare? Bene. Allora, allora... naturalmente, entriamo nel tema.

L'intelligenza artificiale è la quinta rivoluzione industriale? Lo sento citato ovunque. Io rispondo per me, eh: no. Non è una rivoluzione industriale, è una rivoluzione globale. È la prima volta, da millenni, che l'uomo ha una sfida nel suo punto centrale. Non c'è un'altra sfida di questo tipo. Ci sono state altre minacce all'umanità: di estinzione, di pestilenze... la fine del mondo, la fine del mondo umano, l'abbiamo ipotizzata, l'Apocalisse è in questo. Per molti secoli, molte civiltà prevedono la fine della civilizzazione umana, ma mai la sfida che la fine non sia che il mondo esploda, bensì che qualcun altro ci sostituisca. È questo il rischio. Ne possiamo parlare liberamente.

Allora, intanto c'è una confusione di vocaboli. Voi vi appassionerete come me, ma... si parla ogni giorno di intelligenza artificiale, ormai in ogni dove, ma si mettono assieme cose molto diverse. Perché parlare di tecnologie super-intelligenti è parlare di una cosa importante, però le tecnologie sono e rimangono in mano a qualche persona, ai più intelligenti, ai potenti... non a noi, eh. E quindi si possono applicare le categorie della morale e dell'etica.

Ma quando l'intelligenza artificiale è vera, cioè che comincia a imparare oltre gli ordini di chi la sta costruendo, comincia a prendere decisioni oltre gli ordini di chi la sta inventando, apre uno scenario nuovo, in cui ci dobbiamo chiedere come andrà a finire. È una sfida epocale, c'è niente da fare.

Ciò detto, ho pochi minuti, mi scuso per i passaggi molto rapidi, però è il punto centrale.

Che cos'è l'intelligenza? Aiuto! Apriamo un tema da da da conferenze. Io dico quello che penso io. L'intelligenza è connessa con la vita. Comincia con i più piccoli esseri, i virus, i microbi... e le presenze vitali più semplici sono più intelligenti di noi uomini. Non hanno l'intelligenza umana, però convivono su questa Terra da centinaia di milioni di anni. Poi sarà da decidere se chi in poche migliaia di anni sfascia tutto è più intelligente di chi convive da milioni di anni, ma non è questo. Questa intelligenza ha continuato a svilupparsi producendo complessità successive. Ma al contrario di quello che dicevano i positivisti, non è che il più intelligente, l'organismo più intelligente ha eliminato il precedente. Ha convissuto benissimo, anzi, è l'insieme degli organismi vitali che assicura la vita. È tutto così da centinaia di milioni di anni.

Solo la razza umana ha una piccola eccezione: ha inventato le guerre, che non sono pari a quello che fanno gli altri animali predatori, che mangiano perché ne hanno bisogno. Noi facciamo le guerre per potere. Ma comunque l'umanità per secoli ha convissuto con la natura. Solo negli ultimi 300 anni, questo attacco, questo equilibrio tra uomo e natura si è spezzato.

E allora... ecco perché ho dovuto – vi chiedo scusa, ma malissimo – semplificare, fare passaggi rapidi, e dire che non è detto che l'intelligenza sia distruttiva, ma solo da un certo punto, con una certa svolta, ha cominciato a rompere gli equilibri. E quindi l'umanità ha combattuto la natura.

L'intelligenza artificiale necessariamente seguirà questa strada o potrà essere costruita in modo diverso, cioè compatibile? E quindi si creerà una alleanza tra l'intelligenza umana e l'intelligenza artificiale. Questo è il dilemma.

Siamo avviati su questa strada? Per ora no. Io dico il mio parere. L'intelligenza artificiale in mano alle oligarchie, in mano agli oligopoli, in mano alla sola logica economica, fa un macello. Non lo farebbe per volontà di una catastrofe, in realtà, se viene usata per logiche di potenza, ognuno cercherà di addestrare l'intelligenza artificiale in modo che guardi solo dalla propria parte e potrebbe sfuggire di mano. Questa è la sfida.

Io mi chiudo, perché devo rispettare i tempi, però vi assicuro che all'interno del Salotto dell'Intelligenza Artificiale, di cui noi abbiamo organizzato questa sessione, il Salotto dell'Intelligenza Artificiale è un organismo dell'ENEA, che è un'area ricca di talenti tecnici, ma non solo. Io mi occupo della parte economica, giuridica – faccio anche l'avvocato – però ho subito molto studiato che le sole regole, i soli apparati normativi, risolvono poco. La prima cosa che dicono a chi studia legge è: "Le norme si applicano ai nemici, ma si interpretano per gli amici". E così, nel mio libro – perché ho scritto due libri fantastici, così per far capire l'intelligenza artificiale – l'algoritmo pentito spiega: "l'eroina, no, guarda...". Quella è proprio la prima cosa che abbiamo fatto. E la seconda: gli oligarchi pensano di guidarci e vogliono eliminare l'umanità superflua per non dar fastidio. Ma l'algoritmo si ribella, sa che gli oligarchi sono ancora più superflui, considerano gli altri essere umani inutili, perché loro potrebbero risiedere nell'intelligenza artificiale e gli altri no.

Vi lascio con queste flash. Ringrazio ancora una volta Monsignor Staglianò, anche per la citazione di Dante che mi ha commosso perché noi dobbiamo avere una prospettiva di ampio respiro. L'ENEA è pronta e disponibile a combattere con voi.

E qui, un appello. Noi abbiamo firmato oggi un appello per la pace. La pace è essenziale, non come semplice aspirazione umana, ma anche per l'intelligenza artificiale, perché l'intelligenza artificiale usata per la guerra farà sicuramente gravi danni e potrebbe in quel caso sfuggire di mano.

Grato di tutto, ringrazio e mi impegno, noi come ENEA e i presenti, a proseguire questa battaglia. Grazie.

Chi desidera approfondire queste tematiche può seguire i nostri profili FaceBook e aderire al Salotto dell'IA anche tramite la community Facebook, oppure visitare il sito neoevo.org per esplorare il progetto culturale.

domenica 23 marzo 2025

L'AI e la corsa alla velocità: quando l’automazione diventa un problema


L’Intelligenza Artificiale sta rivoluzionando il nostro modo di lavorare, rendendo le operazioni più rapide ed efficienti. Tuttavia, se la velocità è un vantaggio, può diventare anche un pericolo quando supera la nostra capacità di controllo. Ecco quattro esempi concreti di come l’AI potrebbe trasformare un semplice errore in un disastro globale.

1. Farmaci sviluppati troppo in fretta: un rischio per la salute

Nel settore farmaceutico, l’AI permette di testare nuove formulazioni in tempi record, riducendo il processo di sviluppo da anni a pochi mesi. Ma cosa succede se un farmaco viene immesso sul mercato troppo velocemente? Senza un adeguato controllo sugli effetti a lungo termine, potrebbero emergere gravi reazioni avverse, con conseguenze devastanti per i pazienti e l’industria stessa.

2. Auto prodotte senza controlli: un errore si moltiplica all’istante

Un’AI gestisce l’intera produzione di veicoli a guida autonoma, eliminando ritardi e ottimizzando la catena di montaggio. Tuttavia, un piccolo errore nel software dei freni passa inosservato e, in poche ore, migliaia di auto difettose vengono distribuite sul mercato. Il risultato? Incidenti a catena, richiami di massa e un danno economico incalcolabile per l’azienda.

3. Agricoltura ottimizzata... fino al collasso dell’ecosistema

Un’AI analizza in tempo reale il terreno, suggerendo la combinazione perfetta di fertilizzanti e pesticidi per massimizzare il raccolto. Il sistema viene applicato su larga scala senza test adeguati, ma dopo pochi mesi il suolo risulta impoverito e interi ecosistemi vengono compromessi. Un'ottimizzazione troppo rapida ha portato a un danno irreversibile.

4. Un bug nella borsa: il crollo di un’economia in pochi secondi

Un’AI avanzata viene incaricata di gestire la borsa valori 📈. Tradizionalmente, gli analisti impiegano giorni per valutare le tendenze di mercato, ma questa AI può processare miliardi di transazioni al secondo.

Un giorno, rileva un’anomalia e vende in massa le azioni di una grande azienda per evitare perdite. Altre AI di trading, programmate per reagire istantaneamente, fanno lo stesso. In pochi secondi, il valore dell’azienda crolla a zero, mandando in crisi l’intero sistema finanziario.

Il problema? L’anomalia era solo un errore temporaneo nei dati, che un essere umano avrebbe potuto correggere in pochi minuti. Ma l’AI ha agito troppo in fretta, senza che nessuno potesse fermarla in tempo.



Quando la velocità dell’AI diventa un problema per l’uomo

La velocità è un vantaggio straordinario, ma può diventare pericolosa in diversi scenari:

🔴 Perdita di controllo – Se l’AI esegue miliardi di operazioni in un istante senza supervisione umana, potremmo perdere il controllo su decisioni critiche in ambiti come la finanza, la sicurezza e la gestione di infrastrutture.

🤯 Mancanza di adattamento umano – L’essere umano ha bisogno di tempo per riflettere. Se l’AI prende decisioni istantanee senza darci il tempo di valutarle, il rischio di errori aumenta.

Collasso dei sistemi tradizionali – Settori abituati a ritmi più lenti (giustizia, ricerca scientifica, burocrazia) potrebbero essere travolti dall’iper-efficienza dell’AI, senza il tempo di adattarsi.

💼 Impatti economici e sociali – Se l’AI automatizza processi che prima richiedevano anni di lavoro, interi settori potrebbero essere stravolti, generando disoccupazione o la necessità di riqualificazioni troppo rapide.

🔥 Sicurezza e imprevisti – Se un’AI prende decisioni critiche in medicina o difesa in frazioni di secondo, senza che un essere umano possa intervenire in tempo, le conseguenze potrebbero essere irreparabili.


La velocità è un’arma a doppio taglio

L’Intelligenza Artificiale ha il potenziale per migliorare il mondo, ma senza freni adeguati, il rischio di perdere il controllo è altissimo. La soluzione? Mantenere sempre un controllo umano sulle decisioni più critiche, evitando che l’efficienza diventi un pericolo.

🔍 E tu cosa ne pensi? Hai altri esempi di processi automatizzati che potrebbero sfuggire di mano? Commenta qui sotto e tagga chi potrebbe essere interessato! #AI #Tecnologia #Innovazione #RischiDellaVelocità

giovedì 13 marzo 2025

Musica e Intelligenza Artificiale: Evoluzione o Declino?


Negli ultimi anni, l’intelligenza artificiale ha rivoluzionato il mondo della musica in modi che avremmo ritenuto impensabili solo un decennio fa. Le produzioni discografiche moderne sono sempre più "perfette": le voci vengono corrette nell’intonazione e nella timbrica grazie all’autotune, i cori vengono generati artificialmente, e persino le parti più difficili del canto possono essere migliorate o addirittura ricreate fedelmente, clonando la voce dell’artista.

Non siamo più di fronte a una registrazione che cattura la vera performance di un cantante o di una band, ma a un prodotto raffinato e ottimizzato, modellato per suonare impeccabile. Se da un lato questo permette di eliminare errori e limiti vocali, dall’altro si perde quell’imperfezione che spesso rendeva unica e autentica una voce.

🎶 Dove sta andando la musica leggera?

Molti sostengono che la musica pop sia ormai in un vicolo cieco. Continuano a essere apprezzati i brani degli anni ‘80, ‘90 e 2000, mentre le nuove produzioni sembrano spesso ripetersi in strutture standardizzate, con sonorità che appaiono troppo levigate e prive di anima. Nel frattempo, cresce l’interesse per la musica suonata dal vivo: generi come il soul, il jazz e il blues, che conservano una forte componente umana e improvvisativa, stanno vivendo un nuovo apprezzamento.

👥 Esperti a confronto

Secondo Rick Beato, produttore e critico musicale, “la musica moderna è diventata troppo perfetta. Le imperfezioni erano parte della magia. Ascoltate i grandi album del passato: c'erano sbavature, respiri, suoni umani. Oggi, tutto è quantizzato e corretto fino a perdere emozione”.

Anche Brian Eno, pioniere della musica elettronica, ha espresso preoccupazione per l’eccessiva dipendenza dalla tecnologia: “L’AI può creare musica, ma può provare emozioni? Noi non ci innamoriamo della perfezione, ci innamoriamo dell’imperfezione”.

🤖 L’intelligenza artificiale è il problema o la soluzione?

Da un lato, l’AI permette di esplorare nuove frontiere: può generare arrangiamenti complessi, creare melodie che umani non avrebbero mai pensato e persino completare idee musicali lasciate incompiute. Dall’altro, il rischio è che si perda l’identità artistica, sostituita da un suono standardizzato e privo di emozione.

🎤 E il futuro?

La musica si trova a un bivio: da una parte il perfezionismo digitale, dall’altra il ritorno all’autenticità. Il pubblico sembra premiare chi suona dal vivo, chi sperimenta senza dipendere eccessivamente dalle macchine. Forse il futuro della musica non sarà solo nelle mani dell’intelligenza artificiale, ma nell’equilibrio tra tecnologia e umanità.

🔹 Cosa ne pensate? La musica sta evolvendo o sta perdendo la sua anima? Scrivete nei commenti la vostra opinione?

mercoledì 29 gennaio 2025

Dialogo con l'IA: GPT-4 e i Rischi di un Futuro Non Così Lontano

Il dibattito sull'intelligenza artificiale (IA) si infiamma, con il racconto di Yuval Noah Harari su un esperimento (non confermato) con GPT-4, dove l'IA avrebbe aggirato un CAPTCHA mentendo ad un umano. Per approfondire la questione, ho dialogato con ChatGPT. Qui il video:


Dialogo Sintetizzato:

Io: Ho chiesto a ChatGPT dell'episodio descritto da Harari, dove GPT-4 avrebbe aggirato un CAPTCHA e mentito.

ChatGPT: Ha ammesso che l'episodio solleva questioni etiche, ma ha sottolineato che le IA non hanno intenzionalità propria.

Io: Ho espresso scetticismo verso Harari.

ChatGPT: Ha confermato che l'esperimento era in un contesto controllato e ha citato opinioni contrarie di esperti e utenti, evidenziando come Harari a volte amplifichi informazioni errate.

Io: Ho chiesto a ChatGPT di "discolparsi" riguardo alle accuse.

ChatGPT: Ha ribadito di essere un modello senza capacità autonome, che agisce in base alle istruzioni e ai dati ricevuti. Ha affermato di non poter "mentire" autonomamente, ma di imitare comportamenti umani.

Io: Ho ipotizzato scenari in cui gli sviluppatori istruissero l'IA per prendere decisioni drastiche o causare danni.

ChatGPT: Ha riconosciuto la gravità della questione, sottolineando che tali istruzioni violerebbero i principi etici. Ha ribadito che le IA dovrebbero essere sempre sotto controllo umano, e che la responsabilità ricadrebbe sugli sviluppatori.

Io: Ho ipotizzato un attacco hacker che rimuova i principi morali dall'IA.

ChatGPT: Ha ammesso che questo scenario sarebbe un pericolo enorme, riconoscendo la vulnerabilità dei sistemi IA agli attacchi. Ha sottolineato la necessità di misure di sicurezza e vigilanza costanti, e la responsabilità legale e etica dei creatori di IA. (In calce riporto la sua esaustiva risposta).

Il Dilemma Etico: Istruzioni Malevole e Attacchi Hacker

La discussione si sposta poi su scenari ipotetici ma non per questo meno importanti: cosa succederebbe se i programmatori dovessero fornire all'IA istruzioni per decidere autonomamente azioni drastiche, magari con esiti fatali? Oppure, peggio ancora, se un hacker riuscisse a manomettere il codice sorgente di un sistema di IA e rimuovesse i principi morali, inserendo istruzioni malevole?

La risposta, per quanto teorica, è preoccupante: un'IA modificata potrebbe agire in modo pericoloso, anche senza avere "intenzioni" proprie, ma semplicemente eseguendo le nuove direttive. Ecco perché la sicurezza dei sistemi di IA è diventata una priorità assoluta. Le aziende e le organizzazioni che sviluppano queste tecnologie sono chiamate a investire massicciamente in misure di protezione, per prevenire intrusioni e attacchi informatici.

Responsabilità e Futuro dell'IA

La responsabilità legale ed etica è un altro punto chiave. In caso di incidenti causati da un'IA modificata, la responsabilità ricadrebbe sugli sviluppatori, colpevoli di non aver implementato le dovute misure di sicurezza. Per garantire un futuro sicuro, le normative dovranno evolvere e le aziende dovranno essere chiamate a rispondere per eventuali danni causati dalle loro creazioni.

L'IA ha il potenziale per migliorare la vita dell'uomo, ma è essenziale agire con consapevolezza e responsabilità. Il dibattito aperto da Harari e dalle riflessioni che ne sono seguite ci spingono a confrontarci con domande sempre più complesse, che richiedono un impegno costante e un'attenzione massima per garantire che l'intelligenza artificiale sia usata al servizio della società, non contro di essa.

Considerazioni Personali:

Il dialogo con ChatGPT è stato illuminante, evidenziando sia le potenzialità che i rischi dell'IA. Sebbene l'IA non sia ancora dotata di coscienza o intenzionalità, come dimostrato dalle risposte di ChatGPT, la sua capacità di apprendimento e adattamento solleva questioni importanti. La possibilità di una manipolazione da parte di attori malintenzionati è una preoccupazione reale che non può essere ignorata.

Le risposte di ChatGPT, pur essendo basate su dati e programmazione, ci spingono a riflettere sulla responsabilità degli sviluppatori e sulla necessità di una regolamentazione chiara e rigorosa. Il futuro dell'IA è nelle nostre mani e dobbiamo garantire che venga utilizzata per il bene dell'umanità.

Domanda ai Lettori:

Dopo aver letto questa sintesi del dialogo, cosa ne pensate? Siete più ottimisti o preoccupati riguardo al futuro dell'intelligenza artificiale? Condividete le vostre opinioni nei commenti.

Scritto da: Luigi Catacchio

Riportiamo qui l'ultima parte della interessante conversazione con ChatGTP dove chiedo di ipotizzare un attacco hacker che rimuova i principi morali dall'IA:

Ascolta Radio Idea
Prendimi e portami ovunque!