Quante volte ti è capitato di imbatterti in un'immagine online e chiederti: "Reale o IA"? Ti sei mai sentito intrappolato in una realtà in cui contenuti creati dall'IA e realizzati da esseri umani si confondono? Dobbiamo ancora distinguere tra loro?
L'intelligenza artificiale ha aperto un mondo di possibilità creative, ma ha anche portato nuove sfide, ridefinendo il modo in cui percepiamo i contenuti online. Dalle immagini, musica e video generati dall'IA che inondano i social media ai deepfake e bot che truffano gli utenti, l'IA tocca ora una vasta parte di internet.
Secondo uno studio di Graphite, la quantità di contenuti creati dall'IA ha superato i contenuti creati dall'uomo alla fine del 2024, principalmente a causa del lancio di ChatGPT nel 2022. Un altro studio suggerisce che oltre il 74,2% delle pagine del suo campione conteneva contenuti generati dall'IA ad aprile 2025.
Man mano che i contenuti generati dall'IA diventano più sofisticati e quasi indistinguibili dal lavoro umano, l'umanità si trova di fronte a una domanda pressante: quanto possono realmente gli utenti identificare ciò che è reale mentre entriamo nel 2026?
La stanchezza da contenuti IA si fa sentire: la domanda di contenuti realizzati dall'uomo è in aumento
Dopo alcuni anni di entusiasmo per la "magia" dell'IA, gli utenti online stanno sperimentando sempre più la stanchezza da contenuti IA, un esaurimento collettivo in risposta al ritmo incessante dell'innovazione IA.
Secondo un sondaggio del Pew Research Center, una mediana del 34% degli adulti a livello globale era più preoccupata che entusiasta dell'uso crescente dell'IA in un sondaggio della primavera 2025, mentre il 42% era ugualmente preoccupato ed entusiasta.
"La stanchezza da contenuti IA è stata citata in molteplici studi poiché la novità dei contenuti generati dall'IA sta lentamente svanendo e, nella sua forma attuale, spesso appare prevedibile e disponibile in abbondanza", ha dichiarato Adrian Ott, chief AI officer di EY Svizzera, a Cointelegraph.
Fonte: Pew Research"In un certo senso, i contenuti IA possono essere paragonati al cibo processato", ha detto, tracciando paralleli tra come entrambi questi fenomeni si sono evoluti.
"Quando è diventato possibile per la prima volta, ha inondato il mercato. Ma nel tempo, le persone hanno iniziato a tornare al cibo locale e di qualità di cui conoscono l'origine", ha detto Ott, aggiungendo:
Ott ha suggerito che etichette come "realizzato dall'uomo" potrebbero emergere come segnali di fiducia nei contenuti online, simili a "biologico" nel cibo.
Gestire i contenuti IA: certificare i contenuti reali tra gli approcci funzionanti
Sebbene molti possano sostenere che la maggior parte delle persone può individuare testi o immagini IA senza provare, la questione del rilevamento dei contenuti creati dall'IA è più complicata.
Uno studio Pew Research di settembre ha rilevato che almeno il 76% degli americani afferma che è importante essere in grado di individuare i contenuti IA, e solo il 47% è sicuro di poterli rilevare con precisione.
"Mentre alcune persone cadono vittima di foto, video o notizie false, altre potrebbero rifiutarsi di credere a qualsiasi cosa o comodamente respingere filmati reali come 'generati dall'IA' quando non si adattano alla loro narrativa", ha detto Ott di EY, evidenziando i problemi della gestione dei contenuti IA online.
Fonte: Pew ResearchSecondo Ott, i regolatori globali sembrano andare nella direzione dell'etichettatura dei contenuti IA, ma "ci saranno sempre modi per aggirarlo". Invece, ha suggerito un approccio inverso, in cui i contenuti reali vengono certificati nel momento in cui vengono catturati, in modo che l'autenticità possa essere ricondotta a un evento reale piuttosto che cercare di rilevare i falsi dopo il fatto.
Il ruolo della blockchain nel determinare la "prova di origine"
"Con i media sintetici che diventano più difficili da distinguere dai filmati reali, affidarsi all'autenticazione dopo il fatto non è più efficace", ha affermato Jason Crawforth, fondatore e CEO di Swear, una startup che sviluppa software di autenticazione video.
"La protezione verrà da sistemi che incorporano la fiducia nei contenuti fin dall'inizio", ha detto Crawforth, sottolineando il concetto chiave di Swear, che garantisce che i media digitali siano affidabili dal momento in cui vengono creati utilizzando la tecnologia blockchain.
Il software di autenticazione video di Swear è stato nominato dalla rivista Time come la migliore invenzione del 2025 nella categoria Criptovaluta e Blockchain. Fonte: Rivista TimeIl software di autenticazione di Swear utilizza un approccio di fingerprinting basato su blockchain, in cui ogni contenuto è collegato a un registro blockchain per fornire la prova di origine — un "DNA digitale" verificabile che non può essere alterato senza essere rilevato.
"Qualsiasi modifica, non importa quanto discreta, diventa identificabile confrontando il contenuto con il suo originale verificato su blockchain nella piattaforma Swear", ha detto Crawforth, aggiungendo:
Finora, la tecnologia di Swear è stata utilizzata tra creatori digitali e partner aziendali, rivolgendosi principalmente a media visivi e audio attraverso dispositivi di cattura video, inclusi bodycam e droni.
"Mentre l'integrazione dei social media è una visione a lungo termine, il nostro focus attuale è sull'industria della sicurezza e della sorveglianza, dove l'integrità video è fondamentale", ha detto Crawforth.
Prospettive 2026: responsabilità delle piattaforme e punti di svolta
Mentre entriamo nel 2026, gli utenti online sono sempre più preoccupati per il crescente volume di contenuti generati dall'IA e la loro capacità di distinguere tra media sintetici e creati dall'uomo.
Mentre gli esperti di IA sottolineano l'importanza di etichettare chiaramente i contenuti "reali" rispetto ai media creati dall'IA, rimane incerto quanto rapidamente le piattaforme online riconosceranno la necessità di dare priorità a contenuti affidabili e realizzati dall'uomo mentre l'IA continua a inondare internet.
L'editore di dizionari Merriam-Webster ha nominato slop come parola del 2025 in mezzo alle preoccupazioni sui contenuti IA. Fonte: Merriam-Webster"In definitiva, è responsabilità dei fornitori di piattaforme fornire agli utenti strumenti per filtrare i contenuti IA e far emergere materiale di alta qualità. Se non lo fanno, le persone se ne andranno", ha detto Ott. "In questo momento, non c'è molto che gli individui possano fare da soli per rimuovere i contenuti generati dall'IA dai loro feed — quel controllo spetta in gran parte alle piattaforme."
Man mano che cresce la domanda di strumenti che identificano i media realizzati dall'uomo, è importante riconoscere che il problema centrale spesso non è il contenuto IA stesso, ma le intenzioni dietro la sua creazione. I deepfake e la disinformazione non sono fenomeni completamente nuovi, anche se l'IA ne ha aumentato drammaticamente scala e velocità.
Correlato: La rete del Texas si sta riscaldando di nuovo, questa volta dall'IA, non dai miner di Bitcoin
Con solo una manciata di startup focalizzate sull'identificazione di contenuti autentici nel 2025, il problema non è ancora salito a un punto in cui piattaforme, governi o utenti stanno intraprendendo azioni urgenti e coordinate.
Secondo Crawforth di Swear, l'umanità deve ancora raggiungere il punto di svolta in cui i media manipolati causano danni visibili e innegabili:
Fonte: https://cointelegraph.com/news/ai-era-internet-can-blockchain-prove-what-is-real?utm_source=rss_feed&utm_medium=feed&utm_campaign=rss_partner_inbound


