Chi siamo
Cosa facciamo
approfondimenti
posizioni aperteblog

Un recente video su TikTok ha catturato la mia attenzione: il celebre cantante Robbie Williams, seduto tranquillamente su una panchina, osservava indisturbato i passanti. Questa scena, apparentemente banale, mi ha riportato alla mente un esperimento sociale condotto nel 2007, che offre preziose riflessioni sul management moderno.

L'esperimento "Pearls Before Breakfast"

L'esperimento "Pearls Before Breakfast", ideato dal giornalista Gene Weingarten del Washington Post, pose una domanda provocatoria: in un contesto ordinario, le persone riconoscerebbero il talento? Per rispondere, Weingarten orchestrò un'audace dimostrazione con il rinomato violinista Joshua Bell.

Il 12 gennaio 2007, alle 7:51 del mattino, Bell si posizionò all'ingresso della stazione metropolitana L'Enfant Plaza di Washington D.C. Vestito in modo casual, con jeans e cappellino da baseball, il celebre musicista iniziò a suonare brani classici del suo repertorio più complesso su uno Stradivari del 1713, del valore di 3,5 milioni di dollari. La location non era casuale: L'Enfant Plaza è frequentata principalmente da manager di medio livello diretti verso il cuore della capitale federale.

Il risultato fu sconcertante: dei 1.097 passanti, solo sette si fermarono per più di un minuto. La maggior parte passò oltre senza un'occhiata, frettolosa e distratta. Bell raccolse appena $32,17, di cui $20 da un'unica persona che lo riconobbe. Un esito sorprendente, considerando che la sera precedente lo stesso Bell aveva suonato in un teatro di Boston con biglietti da $100.

5 lezioni fondamentali

Ritengo questo esperimento illuminante su aspetti del management moderno che reputo cruciali, offrendo cinque lezioni fondamentali che ho fatto mie e che condivido con chi mi legge:

  1. Influenza del contesto: come manager, dobbiamo essere consapevoli di come il contesto influenzi la nostra percezione delle competenze altrui. L'ambiente non dovrebbe oscurare il talento.
  2. Superare pregiudizi e aspettative: è essenziale non legare il nostro giudizio al luogo in cui si manifestano le competenze. Il talento può emergere ovunque, anche nei contesti più inaspettati.
  3. Attenzione oltre la fretta: in un mondo frenetico, dobbiamo resistere alla tentazione di concentrarci solo sugli obiettivi immediati. L'apertura mentale può rivelare opportunità e talenti nascosti.
  4. Valore intrinseco vs. percezione: il valore di una persona o di una performance non dovrebbe dipendere dal contesto, ma dalla sua qualità intrinseca. Come manager, dobbiamo affinare la capacità di riconoscere il valore autentico.
  5. Ripensare l'analisi costi-benefici nelle relazioni: spesso valutiamo rapidamente se interagire con gli altri basandoci su criteri superficiali. È cruciale sviluppare un modello di valutazione più profondo e umano.

L'esperimento di Bell ci ricorda che il vero talento manageriale risiede nella capacità di riconoscere l'eccellenza, indipendentemente dal contesto. In un'epoca in cui i manager rischiano di diventare meri esecutori, queste lezioni mi invitano a riscoprire il ruolo di guida e mentore.

La competenza manageriale

La competenza manageriale è la sintesi di formazione ed esperienza, e il suo scopo ultimo è far crescere le persone. Riconoscere la "musica" nel rumore quotidiano, apprezzare il talento nelle sue forme più inaspettate, e coltivare un ambiente che valorizzi l'eccellenza sono competenze cruciali per il manager moderno.

Mentre riflettiamo su queste lezioni, ricordiamoci che la vera arte del management sta nel creare un'armonia dalle diverse note del talento umano, trasformando il luogo di lavoro in una sinfonia di crescita e innovazione nella quale il genio collettivo possa sempre manifestarsi indisturbato.

PS: Grazie all'articolo con il quale Weingarten descrisse questo esperimento, gli fu attribuito il Premio Pulitzer nel 2008.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

La martellata del meccanico e l’intelligenza artificiale generativa

Le Intelligenze Artificiali (IA) mi hanno da sempre attratto per il fascino di cui erano ammantate grazie ai film di Hollywood. 2001 Odissea nello spazio, Ex Machina sono film che vedo e rivedo scoprendo sempre nuovi spunti di riflessione. Negli ultimi anni, alla narrativa cinematografica si è sommato il contributo professionale del quale ho beneficiato grazie ai colleghi con i quali ho avuto la fortuna di lavorare e con il quale oggi ho una visione strutturata (almeno penso che lo sia) delle capacità tecnologiche e delle ricadute nel quotidiano professionale e personale delle persone.

Gli spunti di riflessione che si sono susseguiti nel tempo sono stati appuntati nei miei articoli con l’intento di generare un confronto che non si fermi allo stato dell’arte della ricerca che richiede anni per comprendere la natura di quanto sta accadendo attraverso l’uso delle IA.

Per personale comodità, riepilogo il percorso tracciato dagli articoli che ho scritto.

Le intelligenze aliene

Qualche tempo fa, in questo articolo, ho appuntato le mie riflessioni sul concetto di intelligenza. L’ho fatto perché penso che l’intelligenza sia una creatura sconosciuta malgrado se ne parli tutti i giorni. Tra le intelligenze che popolano il nostro mondo e delle quali parlo nell’articolo ci sono anche le neonate intelligenze artificiali (IA) che stanno diventando uno strumento sempre più diffuso tanto in ambito professionale quanto in ambito consumer per le notevoli capacità generative e la semplicità con la quale è possibile interagire con loro.

Bias e allucinazioni delle IA

La storia ci ha insegnato che, come ogni grande strumento, anche l’intelligenza artificiale porta con sé nuovi ed inattesi problemi che, come scritto in questo articolo, nel caso delle IA, i problemi maggiori sono legati alla presenza di bias che reputo inevitabili ed esistenti anche laddove se ne esclude la presenza. L’inaspettata natura dei problemi delle IA, come esposto in questo articolo scritto a quattro mani con l’amico Remco Foppen, si sta manifestando anche sotto forma di allucinazioni che, lungi dall’essere esclusiva prerogativa umana, è diventata il cruccio di chi opera con i sistemi LLM di ultima generazione perché, come accade con gli uomini, anche le allucinazioni artificiali sono sempre più coerenti con la realtà e, quindi, difficili da identificare.

Ricadute delle IA nei processi creativi

Malgrado i limiti che mostrano le IA, trovo questi sistemi indiscutibilmente utili anche laddove si intravedono ampie zone grigie legate al fatto che sono ancora poco chiari limiti, opportunità, rischi e benefici. Qualunque sia l’uso che se ne fa, le IA stanno già modificando il nostro modo di essere e di pensare tanto che, come scritto in questo articolo, non escludo il manifestarsi del loro effetto anche sui meccanismi che governano i processi creativi. Il blocco dello scrittore è facilmente aggirabile se si ricorre ad una IA e, a quanti lamentano l’assenza di originalità, rispondo dicendo che, come in ogni creazione, l’ispirazione non è mai l’opera finale.

Non usate GPT perché i clienti se ne accorgono

Questo articolo nasce da una battuta fatta da un collega al termine di una riunione di progetto che, con tono perentorio, disse:

“Mi raccomando, non usate ChatGPT per scrivere i documenti di progetto perché esistono dei sistemi in grado di rivelarlo e ci facciamo una pessima figura con il cliente”.

Questa battuta mi fece immediatamente tornare la mente ai tempi dell’esame di matematica generale il cui Prof titolare di cattedra ci vietava l’uso delle calcolatrici. Da giovane universitario mi chiesi cosa fosse più importante tra il ragionamento che porta al calcolo ed il calcolo stesso. Oggi come allora mi chiedo cosa sia più importante tra il meccanismo che porta all'elaborato e l'elaborato.

L’innovazione ed i mali dell’umanità

L’uso di strumenti di supporto alla produttività è da sempre visto con diffidenza. Per quanto bizzarro, le critiche all’innovazione prescindono dalla natura dell’innovazione tanto che c'è stato un tempo in cui ad essere criticata fu la persino la scrittura che Platone, nel Fedro, definì causa di deterioramento della memoria. Non è stato riservato trattamento migliore alla calcolatrice il cui uso era osteggiato perché riduce la capacità di eseguire a mente calcoli, anche molto complessi. Oggi nessuno di noi potrebbe fare a meno della scrittura e l’uso della calcolatrice non solo è stato accettato, ma incentivato dal ministero della pubblica istruzione che già da decenni ne consente l’uso nelle prove di matematica del liceo scientifico e tecnologico.

L’inarrestabile incedere dei cambiamenti

Il cambiamento che si innesca al diffondersi di ogni nuova tecnologia è inarrestabile. Lo è stato per la scrittura, lo è  stato per la fotografia e lo è stato per la calcolatrice a scapito del regolo calcolatore. Per quanto ci si lamenti, il cambiamento diventerà quotidianità. Questo ciclo evolutivo ci impone riflessioni e su ciò che siamo, su come ci percepiamo e su cosa desideriamo essere.

L’importanza dei giusti perché

Le IA hanno prodotto molti impatti sulla natura umana ed uno di questi lo desidero annotare in questo articolo. Parlo di un aspetto che non avevo ancora preso in considerazione malgrado sia legato alla capacità di elaborare un concetto, un’idea. Non esito a considerare questo aspetto il carburante di ogni analisi. Sto parlando della capacità, per nulla innata, di porre domande strutturate in modo tale da indirizzare l’interlocutore verso una risposta sintetica e chiara.

La forza delle domande ben formulate

Una domanda ben formulata è un potente strumento grazie al quale si può guidare un intero processo di analisi permettendo di concentrare l’attenzione su ciò che è veramente importante: definire l’obiettivo dell’analisi e determinare quali dati sono necessari. Una domanda ben posta può aiutare ad identificare eventuali limitazioni o sfide che potrebbero sorgere durante l’analisi, risolvere problemi complessi e costruire relazioni. Una domanda mal costruita determina una pericolosa trappola i cui effetti possono allontanarci dalla nostra esplorazione facendoci finire col farci confermare ciò che già sappiamo.

La relazione tra i giusti perché e l’elaborato di una IA

La relazione esistente tra la capacità di porsi domande ben strutturate e l’uso di una IA è rappresentata dal fatto che le IA operano solo se viene somministrata loro una richiesta/domanda e la qualità dell’elaborato prodotto da una IA è direttamente legata alla qualità della domanda formulata. In modo analogo a quanto accade con gli uomini, una domanda formulata in modo sbagliato può risultare fuorviante anche per un sistema IA le cui fragilità possono emergere attraverso la formulazione di domande che si avvalgono di specifici costrutti logici. Una domanda strutturata in modo corretto consente di attivare una IA su compiti per i quali non è stata direttamente addestrata ad operare ma per i quali è in grado di formulare risposte attendibili perché basate su dati verificati (almeno si spera che lo siano).

Prompt engineering

Il prompt engineering è il campo di studi nel quale si cerca di individuare la tecnica migliore per scegliere i formati, le frasi, le parole e i simboli più appropriati nella formulazione delle domande che guidano una IA generativa a produrre risultati pertinenti e di alta qualità. La relazione che lega la qualità della domanda alla pertinenza della risposta è centrale in ogni ambito degli studi filosofici così come risulta esserlo per una corretta interazione con una IA.

Il bilancio della curiosità

L'importanza della prompt engineering mi induce a pensare che, anche in tempi nei quali la conoscenza può essere raggiunta attraverso intelligenze sovrumane (così sono definite le intelligenze posteriori alla “mossa 37”), il valore della conoscenza resta legato al disavanzo fisso tra domande e risposte. Avere più domande che risposte significa avere la chiave della conoscenza dal momento che l’operatività efficace delle IA, così come accade per quella del cervello umano, è strettamente legata alla capacità di porre le domande giuste.

La martellata del meccanico e l'originalità dell’elaborato

Proseguendo il mio ragionamento e focalizzandomi sulla questione relativa alla originalità dell'elaborato, mi chiedo in che modo cambierebbe la tua opinione sulla qualità di questo testo se ti dicessi che è stato generato con il supporto di una IA. Mi spiego meglio ricorrendo al noto aneddoto della martellata del meccanico. Un tizio, dopo avere interpellato numerosi meccanici e speso molti soldi, si reca da un meccanico al quale chiede di eliminare il fastidioso cigolio che affligge il motore della sua auto. L'anziano meccanico, dopo avere ascoltato per qualche secondo il disgraziato suono, prende un vecchio martello e, con colpo deciso, risolve il problema. Per la martellata chiede 500 euro. Al cliente che non intendeva pagare quella cifra per un colpo di martello, il meccanico rispose chiedendo se il cliente sarebbe stato capace di fare lo stesso. Il resto del ragionamento lo lascio a te che mi leggi. In pratica, semmai avessi usato una IA per generare questo testo, il suo ruolo strumentale nel percorso creativo/produttivo non sarebbe dissimile da quello assunto dal martello nelle mani dell’anziano meccanico. In ragione di ciò, piuttosto che chiedermi se per l’esecuzione di una attività è stata o meno usata una IA, preferisco chiedermi quale grado di padronanza dello strumento si è avuto nel suo impiego.

L’IA, la scrittura e la calcolatrice

Penso che l’uso delle IA sia al pari dell’uso della scrittura, della calcolatrice e del martello del meccanico. Il loro valore funzionale è legato alla capacità di farne buon uso. Così come nessuno mi chiederebbe se ho usato o meno la calcolatrice nello svolgimento dei miei test di radiotecnica, spero che un giorno non mi si chiederà più se ho usato o meno una IA nel processo di stesura dei miei elaborati perché considero queste critiche il frutto di banali frustrazioni neo-feudali che albergano di nelle pleistoceniche menti di personaggi che vogliono sapere che si è “faticato” invece di concentrarsi sulla qualità del lavoro prodotto.

La smania dell’originalità

Agli gli irriducibili dell’originalità dell’elaborato, i capi ultrà della “è frutto del mio sudore”, le vergini scandalizzate del “qui non copia nessuno” dichiaro che ho lasciato ad altri e senza rimpianto la loro sponda culturale a favore del ruolo di quello che ti dice che Babbo Natale non esiste. Signore e Signori, la gran parte dei professionisti che ho conosciuto negli ultimi 20 anni in giro per le decine di aziende nelle quali ho lavorato produce documenti attingendo “copiosamente” a quanto già prodotto per e/o da altri. Fatevene una ragione, il mondo si regge su 3 semplici tasti della tastiera CTRL, C e V.

Conclusioni

Chiarita la mia posizione in merito all’uso delle IA ed al loro ruolo funzionale, resta da capire come queste impattano sulla capacità di formulare domande adeguate alle aspettative che si nutrono sull’elaborato atteso. Le potenzialità offerte dalle IA generative porteranno le persone a trovare il modo per impiegarle in contesti sempre più ampi della vita quotidiana e lavorativa. Ciò indurrà a sviluppare una capacità sempre maggiore di formulare domande strutturate la cui natura non può che derivare da uno sforzo di analisi ed astrazione. In sostanza, per quanto vi possa dare fastidio, in futuro nessuno scriverà pensando di farlo senza il supporto di una IA perché, oltre alla condivisione di quanto si pensa, un testo ha lo scopo di divulgare un contenuto a fini culturali.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Introduzione

OpenAI continua a innovare nel campo dell'intelligenza artificiale, e la versione ChatGPT-4o rappresenta un significativo passo avanti rispetto ai suoi predecessori. Questo modello introduce una serie di miglioramenti e nuove funzionalità che ampliano le capacità dell'IA, rendendola più potente, versatile e accessibile.

Multimodalità

Una delle novità più rilevanti di ChatGPT-4o è la capacità multimodale. Questo modello è in grado di elaborare simultaneamente diversi tipi di input, inclusi testo, immagini, audio e video. Questa funzionalità consente interazioni più naturali e complete con l'IA, offrendo risposte più contestualizzate e pertinenti.

Miglioramento delle Prestazioni

GPT-4o è stato progettato per essere più veloce e efficiente. Rispetto ai modelli precedenti, è due volte più veloce, con tempi di risposta ridotti e una maggiore capacità di gestione delle richieste simultanee. Inoltre, il modello è più efficiente dal punto di vista energetico, riducendo il consumo di risorse.

Velocità e Efficienza

Tempo di risposta: risponde in meno di 300 millisecondi, garantendo interazioni rapide e fluide.

Gestione delle richieste: capacità di gestire fino a 10 milioni di token al minuto, migliorando la velocità di elaborazione delle informazioni.

Questi miglioramenti in velocità ed efficienza fanno di GPT-4o un'opzione eccellente per applicazioni che richiedono risposte rapide e precise, come i servizi di assistenza clienti e gli assistenti virtuali.

Accessibilità gratuita

Una delle innovazioni più importanti è l'accessibilità gratuita di GPT-4o. Questo modello offre gratuitamente funzionalità che in precedenza erano riservate agli utenti a pagamento. Questa mossa strategica di OpenAI mira a democratizzare l'accesso all'IA, permettendo a un pubblico più ampio di sfruttare le potenzialità del modello.

Funzioni accessibili gratuitamente

Analisi dei file: gli utenti possono caricare e analizzare file di testo senza costi aggiuntivi.

Utilizzo degli sssistenti GPTs: funzionalità avanzate come la gestione dei compiti e l'automazione dei flussi di lavoro sono ora disponibili per tutti.

L'accessibilità gratuita di GPT-4o non solo amplia la base di utenti, ma favorisce anche l'innovazione e la creatività, poiché più persone possono sperimentare con le capacità avanzate dell'IA.

Ampliamento della Finestra di Contesto

GPT-4o introduce una finestra di contesto ampliata a 128K. Questo permette al modello di mantenere la coerenza e la pertinenza delle risposte anche in conversazioni lunghe e complesse. L'aumento della finestra di contesto migliora significativamente la capacità del modello di comprendere e rispondere alle richieste degli utenti.

Vantaggi della Finestra di Contesto Ampliata

Conversazioni Lunghe: Maggiore coerenza nelle interazioni prolungate.

Analisi Dettagliate: Capacità di elaborare e comprendere grandi quantità di informazioni contestuali.

La finestra di contesto ampliata consente a GPT-4o di fornire risposte più accurate e pertinenti, migliorando l'esperienza complessiva dell'utente.

Integrazione del Web e App Desktop

GPT-4o integra l'accesso al Web, permettendo al modello di ottenere informazioni in tempo reale per rispondere alle domande degli utenti. Inoltre, OpenAI ha rilasciato un'app desktop per Mac (e prossimamente per Windows), che facilita l'interazione con l'IA tramite la clipboard del PC.

Utilizzo dell'App Desktop

Interazione semplificata: gli utenti possono copiare testo, immagini o altri dati nella clipboard e ricevere risposte immediate.

Accesso in tempo reale: possibilità di ottenere informazioni aggiornate grazie all'integrazione del Web.

L'app desktop rende GPT-4o un compagno di lavoro versatile, integrandosi facilmente nel flusso di lavoro quotidiano degli utenti.

Capacità di Percepire le Emozioni

GPT-4o introduce anche la capacità di percepire e reagire alle emozioni umane. Durante le demo, il modello ha mostrato la capacità di rilevare lo stato emotivo dell'utente, come la felicità o l'ansia, e rispondere di conseguenza. Ad esempio, se l'utente mostra segni di stress, GPT-4o può fornire consigli per calmarsi.

Esempi di Interazione Emotiva

Supporto emotivo: il modello può offrire consigli per la gestione dello stress o suggerimenti per migliorare il benessere emotivo.

Personalizzazione delle risposte: adatta il tono e lo stile delle risposte in base all'emozione percepita, migliorando l'esperienza dell'utente.

Questa capacità di percepire le emozioni rende GPT-4o un assistente virtuale più empatico e umano, migliorando significativamente l'interazione con gli utenti.

Implicazioni per i Programmatori

Le API di GPT-4o sono disponibili a un costo ridotto rispetto a GPT-4, rendendo più accessibile l'uso del modello per applicazioni di vario tipo. L'aumento del dizionario dei token riduce i costi di elaborazione e le dimensioni delle finestre di contesto, migliorando l'efficienza complessiva.

Esempi di Applicazioni Programmabili

Assistenti virtuali: creazione di assistenti capaci di gestire conversazioni complesse e offrire supporto su una vasta gamma di argomenti.

Analisi dei dati: capacità di analizzare dati testuali, visivi e audio, fornendo insight più completi e accurati.

Contenuti generativi: sfruttare le capacità avanzate di GPT-4o per generare contenuti creativi, come articoli, storie e video, basati su input variabili.

L'accessibilità delle API di GPT-4o consente ai programmatori di esplorare nuove possibilità creative e sviluppare applicazioni innovative che sfruttano appieno le capacità del modello.

Conclusione

GPT-4o rappresenta un passo avanti significativo per OpenAI, migliorando non solo la complessità del modello ma anche l'usabilità e l'accessibilità delle tecnologie AI. Con l'implementazione di funzionalità avanzate e l'accesso gratuito, GPT-4o promette di ampliare l'uso dell'IA oltre le semplici chat. La combinazione di velocità, efficienza e capacità multimodali rende GPT-4o un potente strumento per una vasta gamma di applicazioni, dall'assistenza sanitaria all'intrattenimento, dall'educazione alla finanza.

In un panorama tecnologico in rapida evoluzione, l'accessibilità di GPT-4o consente a un numero maggiore di utenti di sperimentare e integrare l'IA nelle loro attività quotidiane. Questo modello non solo migliora le prestazioni rispetto ai suoi predecessori, ma offre anche nuove opportunità per l'innovazione e la creatività. Con GPT-4o, OpenAI continua a spingere i confini dell'intelligenza artificiale, dimostrando il potenziale di questa tecnologia di trasformare il nostro modo di vivere e lavorare.

Entra in contatto con noi

Introduzione

L'intelligenza artificiale (IA) ha trasformato profondamente il modo in cui interagiamo con la tecnologia. Due dei modelli di IA più avanzati e noti oggi sono ChatGPT di OpenAI e Gemini di Google. Entrambi rappresentano il culmine di anni di ricerca e sviluppo nel campo dell'elaborazione del linguaggio naturale (NLP), ma presentano differenze significative in termini di architettura, funzionalità e applicazioni. Questo articolo esplorerà queste differenze, offrendo una panoramica approfondita delle caratteristiche di ChatGPT e Gemini.

L'Importanza dell'IA nel contesto tecnologico attuale

L'intelligenza artificiale è diventata una componente fondamentale della tecnologia moderna, influenzando settori come l'automazione, la sanità, la finanza e l'educazione. Le aziende tecnologiche di punta, tra cui Google e OpenAI, stanno guidando la rivoluzione dell'IA, sviluppando modelli avanzati che promettono di ridefinire le capacità tecnologiche e migliorare la vita quotidiana delle persone. La corsa per ottenere una posizione dominante nel mercato dell'IA ha portato alla creazione di strumenti potenti come ChatGPT e Gemini.

ChatGPT: una panoramica

ChatGPT è un modello di linguaggio avanzato sviluppato da OpenAI, basato sull'architettura GPT-3 e il successivo GPT-4. È progettato per comprendere e generare testo umano in modo coerente e pertinente. Utilizza miliardi di parametri per apprendere da una vasta gamma di testi e rispondere alle domande in modo naturale.

Storia e sviluppo di ChatGPT

OpenAI ha introdotto la serie GPT (Generative Pre-trained Transformer) con GPT-3, che è diventato rapidamente famoso per la sua capacità di generare testo estremamente realistico. GPT-4 ha ulteriormente migliorato queste capacità, aumentando il numero di parametri e affinando gli algoritmi di machine learning utilizzati. ChatGPT è stato creato per applicazioni pratiche come assistenti virtuali, chatbot per il customer service e strumenti di scrittura automatizzata.

Funzionalità e capacità di ChatGPT

ChatGPT è noto per la sua capacità di mantenere conversazioni naturali su una vasta gamma di argomenti. Può generare testo, rispondere a domande, scrivere saggi, e persino creare codice. La sua versatilità lo rende uno strumento potente per molte applicazioni, dalla scrittura creativa all'assistenza tecnica.

Gemini: una panoramica

Gemini è il chatbot di Google, basato sul modello linguistico PaLM 2. Questo modello rappresenta un'evoluzione significativa rispetto ai precedenti tentativi di Google nel campo dell'IA, come Bard. Presentato durante la conferenza I/O 2023 e successivamente rinominato Gemini nel febbraio 2024, questo strumento è progettato per fornire risposte precise e contestualizzate agli utenti.

Storia e sviluppo di Gemini

Google ha sviluppato Gemini per competere direttamente con i modelli di IA più avanzati come ChatGPT. Basato su PaLM 2, Gemini utilizza tecniche avanzate di machine learning per leggere e comprendere miliardi di parole, migliorando costantemente attraverso l'interazione con gli utenti. La rinominazione e il miglioramento del modello riflettono l'impegno di Google nel rimanere all'avanguardia dell'innovazione tecnologica.

Funzionalità e capacità di Gemini

Gemini è disponibile in tre varianti: Nano 1.0, Pro 1.0 e Ultra 1.0, ciascuna progettata per specifiche esigenze e applicazioni. Il modello Ultra 1.0, in particolare, è estremamente potente con 540 miliardi di parametri, superando il modello GPT-4 di ChatGPT. Gemini può gestire input multimodali, tra cui testo, immagini, audio e video, rendendolo versatile e capace di affrontare compiti complessi.

Confronto tra ChatGPT e Gemini

Architettura e tecnologia

ChatGPT: basato sull'architettura GPT-4, utilizza miliardi di parametri per generare testo naturale. È altamente versatile e può essere adattato a diverse applicazioni.

Gemini: basato su PaLM 2, offre tre varianti per diverse esigenze. Il modello Ultra 1.0 con 540 miliardi di parametri è progettato per compiti complessi e supporta input multimodali.

Capacità di Apprendimento e Comprensione

ChatGPT: eccelle nella generazione di testo coerente e pertinente, mantenendo conversazioni su una vasta gamma di argomenti. È particolarmente utile per scrittura creativa e assistenza tecnica.

Gemini: offre una comprensione più profonda del contesto grazie alla sua capacità di apprendere da miliardi di parole. La sua capacità di gestire input multimodali lo rende ideale per applicazioni complesse e multifunzionali.

Applicazioni Pratiche

ChatGPT: utilizzato principalmente in assistenti virtuali, chatbot per customer service, strumenti di scrittura automatizzata e generazione di codice.

Gemini: Utilizzato in una vasta gamma di settori, dalla sanità alla finanza, dall'educazione all'automazione industriale. Le sue varianti Pro 1.0 e Ultra 1.0 lo rendono adatto sia per applicazioni quotidiane che per compiti altamente complessi.

Accessibilità e Costi

ChatGPT: disponibile attraverso diverse piattaforme e può essere integrato in varie applicazioni aziendali. I costi variano in base all'utilizzo e all'integrazione.

Gemini: disponibile gratuitamente nella versione Pro 1.0, mentre l'accesso a Gemini Advanced (Ultra 1.0) richiede un abbonamento al piano Google One AI Premium. Questo include vantaggi aggiuntivi come 2TB di spazio su Google Drive.

Potenza e Prestazioni

ChatGPT: con 175 miliardi di parametri, GPT-4 è estremamente potente ma leggermente inferiore al modello Ultra 1.0 di Gemini in termini di capacità computazionale.

Gemini: con 540 miliardi di parametri, Ultra 1.0 offre una potenza senza precedenti, ideale per compiti altamente complessi e per gestire grandi quantità di dati.

Conclusione

Sia ChatGPT di OpenAI che Gemini di Google rappresentano il meglio dell'innovazione nell'intelligenza artificiale. Mentre ChatGPT si distingue per la sua versatilità e la capacità di mantenere conversazioni naturali su una vasta gamma di argomenti, Gemini si fa notare per la sua potenza computazionale e la capacità di gestire input multimodali.

La scelta tra ChatGPT e Gemini dipende dalle esigenze specifiche dell'utente. Per applicazioni che richiedono un'interazione testuale naturale e versatile, ChatGPT è una scelta eccellente. Per compiti che necessitano di una potenza computazionale elevata e la gestione di vari tipi di input, Gemini Ultra 1.0 offre capacità senza pari.

In ogni caso, entrambi i modelli continuano a evolversi e migliorare, promettendo di portare l'intelligenza artificiale a nuovi livelli di prestazioni e utilità. La continua ricerca e sviluppo in questo campo garantiranno che sia ChatGPT che Gemini rimangano strumenti fondamentali per l'innovazione tecnologica e l'automazione del futuro.

Entra in contatto con noi

In questo articolo riporto le mie perplessità in merito alle ricadute del concetto di incertezza nei sistemi a supporto delle decisioni cercando di fare una particolare attenzione agli effetti generati sui decision support systems basati su intelligenza artificiale (AI-DSS). Il percorso che mi ha portato a questo articolo è iniziato dalle riflessioni che ho condiviso nell’articolo nel quale declino il concetto di incertezza oltre il perimetro della qualità dei dati (qui il link).

I sistemi a supporto dei processi decisionali.

Un sistema di supporto alle decisioni (DSS - Decision Support System) è un sistema software in grado di raccogliere, organizzare ed analizzare i dati aziendali al fine di fornire informazioni utili a supportare un qualsiasi processo decisionale oppure supportare attività di gestione e/o pianificazione. In altre parole, un DSS supporta le persone che devono prendere decisioni strategiche in contesti particolarmente complessi nei quali è difficile determinare quale sia la scelta giusta da prendere oppure quale strategia decisionale debba essere utilizzata per raggiungere un determinato obiettivo. La loro affidabilità la si può ricondurre agli algoritmi utilizzati per elaborare i dati ed alla qualità del dataset utilizzato. In sostanza, tali sistemi si basano su un modello semplificato della realtà costruito partendo dai dati in possesso del decisore.

I DSS basati su intelligenza artificiale.

Negli ultimi anni i sistemi software presenti nei DSS sono stati potenziati attraverso l’adozione dell’intelligenza artificiale al fine di rendere sempre più affidabile il modello di rappresentazione della realtà sulla base del quale generare delle elaborazioni. L’AI è in grado, infatti, di costruire autonomamente il modello di rappresentazione dell’universo analizzato (modello AI) e di farlo partendo dal solo dataset progettato dagli analisti.

L’importanza del giusto dataset.

Riassumendo quanto fin qui scritto, una AI sviluppa il modello di rappresentazione dell’universo da analizzare basandosi esclusivamente sul dataset che gli analisti hanno progettato. Essendo, tuttavia, il mondo reale molto più complesso della nostra capacità di sintesi, gli analisti progettano i dataset in modo tale da trovare il giusto compromesso tra un numero di dimensioni sufficientemente ampio da rappresentarne le macrodinamiche del fenomeno da analizzare ma non troppo da rendere complesso il processo di verifica dei risultati prodotti dal modello.

... e qui nascono i miei dubbi

La complessità del mondo reale.

Per quanto correttamente progettato, un dataset resta pur sempre una delle possibili rappresentazioni dell’universo nel quale si manifesta il fenomeno da analizzare. Dal momento che una delle possibili forme dell’incertezza (descritte qui) è proprio legata alla complessità dell’ambiente reale, come possiamo essere certi che il dataset progettato dagli analisti non sia affetto anche solo da incertezza ambientale? Per essere chiari, non sto parlando propriamente di bias ma di qualcosa che temo sia meno tangibile seppur potenzialmente impattante tanto quanto i bias.

Le dimensioni contano.

I miei dubbi sono legati alla scelta delle dimensioni da inserire nel dataset e dall'impossibilità di sapere come ogni dimensione concorrerà a generare il modello AI ed i risultati delle sue elaborazioni. Inoltre, le dimensioni di un modello AI (features) sono spesso considerate indipendenti le une dalle altre laddove, invece, tra le stesse potrebbero innescarsi interazioni o interdipendenze inattese che possono influenzare il risultato delle elaborazioni. Immaginiamo un modello AI a 10 dimensioni delle quali, a nostra insaputa, 3 non sono effettivamente necessarie alla sua rappresentatività ed esaustività. Possiamo pensare che, essendo dimensioni marginali, non impattino sul risultato finale generato dal modello AI. Tuttavia, non solo il modello tiene conto della loro presenza ma le pondera con un criterio che è totalmente nascosto ai nostri occhi a causa del fatto che i sistemi AI operano come delle black box.

Processo di elaborazione di una intelligenza artificiale.

Un sistema AI opera attraverso una rete neurale addestrata a compiere determinati task. Una rete neurale è un processo appartenente ad un’area specifica del machine learning chiamata Deep Learning. Le reti neurali usano una struttura stratificata di neuroni nella quale ogni strato è caratterizzato da una specifica micro-competenza e la somma delle elaborazioni effettuate da ogni singolo strato della rete neurale concorre a formare l’elaborazione finale. La capacità principale di una rete neurale è quella di imparare dai propri errori al fine di risolvere problemi complessi, come riassumere documenti o riconoscere volti, in piena autonomia. Il problema delle elaborazioni effettuate da una rete neurale è legato al fatto che ogni suo strato elabora i dati acquisiti attraverso operazioni non lineari. La somma delle elaborazioni prodotte da ogni strato concorre a generare una elaborazione finale per la quale non è possibile effettuare una verifica di correttezza. In sostanza, il processo di calcolo è talmente complesso che i data scientists non sono in grado di verificarlo. In ragione di questa natura complessa, le AI sono considerate black box.

Il problema della certezza del risultato.

Oggi le AI presentano come loro limite principale non più la potenza di calcolo o la disponibilità dei dati ma la struttura del modello AI che elabora i risultati: quando non comprendiamo adeguatamente la struttura del contesto nel quale si manifesta il fenomeno da analizzare, dobbiamo essere cauti nell’affidare ad una AI l’onere di individuare una soluzione ad un problema perché potrebbe generare una soluzione ottimale in un universo non del tutto conforme alla realtà.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Introduzione

Nell'era digitale odierna, l'intelligenza artificiale (IA) si è rapidamente affermata come una delle tecnologie più rivoluzionarie e trasformative. Dai motori di ricerca ai sistemi di raccomandazione, dall'automazione industriale alla medicina personalizzata, l'IA sta ridefinendo il modo in cui viviamo e lavoriamo. Le aziende tecnologiche di punta come Google e OpenAI sono al centro di questa rivoluzione, impegnate in una corsa tecnologica avvincente per sviluppare intelligenze artificiali sempre più avanzate e ottenere una posizione predominante sul mercato.

Google, in particolare, ha fatto passi da gigante con il lancio di Gemini, un'intelligenza artificiale basata sul modello linguistico di nuova generazione PaLM 2. Questo articolo, dopo aver esplorato a fondo le capacità di Chat GPT, si propone di entrare nello specifico di Gemini, esplorando le sue caratteristiche distintive, la sua storia, e le applicazioni pratiche.

L'Importanza dell'IA nel contesto tecnologico attuale

L'intelligenza artificiale ha rivoluzionato molteplici settori, diventando un elemento chiave per l'innovazione tecnologica. Dal miglioramento dei processi aziendali all'automazione delle operazioni quotidiane, l'IA offre strumenti potenti che aumentano l'efficienza e la produttività. Le grandi aziende tecnologiche sono in una continua corsa per sviluppare IA sempre più avanzate, cercando di dominare un mercato in rapida crescita e altamente competitivo. Questo panorama ha visto emergere giganti come Google, OpenAI, Microsoft e altri, ognuno con le proprie soluzioni IA che promettono di ridefinire le capacità tecnologiche.

L'innovazione di Gemini

Gemini rappresenta una delle innovazioni più recenti e avanzate nel campo dell'IA. Sviluppato da Google, Gemini è basato su PaLM 2, un modello linguistico di nuova generazione progettato per comprendere e generare linguaggio naturale con un alto grado di precisione. La capacità di Gemini di apprendere da miliardi di parole e migliorare continuamente attraverso l'interazione con gli utenti lo rende un potente strumento per una vasta gamma di applicazioni. Questo articolo mira a esplorare le caratteristiche distintive di Gemini, la sua storia, e come può essere utilizzato efficacemente.

La storia di Gemini

Gemini è il chatbot di casa Google, basato sul modello PaLM 2 di Google, un modello linguistico avanzato che rappresenta l'evoluzione di Bard, presentato durante la conferenza I/O nel 2023. L'8 febbraio 2024, Google ha ribattezzato Bard in Gemini, segnando un'importante evoluzione nel campo dell'IA. PaLM 2 è progettato per "imparare" leggendo miliardi di parole, permettendogli di comprendere il linguaggio umano in profondità e fornire feedback utili agli utenti.

L'evoluzione da Bard a Gemini non è stata solo una questione di rebranding. Google ha introdotto significative migliorie al modello, rendendolo più potente e versatile. PaLM 2, l'architettura alla base di Gemini, è stato progettato per superare le limitazioni dei modelli precedenti, utilizzando tecniche avanzate di machine learning e deep learning. Questo ha permesso a Gemini di diventare uno strumento più efficiente e capace di rispondere a una gamma più ampia di domande e compiti.

Google ha ridefinito i modelli generativi disponibili, differenziandoli in tre categorie: Nano 1.0, concepito per attività su singoli dispositivi; Pro 1.0, applicabile su scala a un'ampia gamma di attività; e Ultra 1.0, destinato a compiti altamente complessi. Questa suddivisione permette agli utenti di scegliere il modello più adatto alle loro esigenze specifiche, garantendo versatilità e potenza.

Come utilizzare Gemini

Attualmente, è possibile provare Gemini gratuitamente con il modello Pro 1.0, disponibile in oltre 40 lingue in più di 230 paesi e territori, inclusa l'Italia. Il modello Ultra 1.0, che fa parte di Gemini Advanced, è disponibile in più di 150 paesi, ma per ora solo in lingua inglese. Mentre la versione gratuita di Gemini con il modello Pro 1.0 rimarrà accessibile gratuitamente, l'accesso a Gemini Advanced sarà riservato ai sottoscrittori del piano Google One AI Premium, a partire da 21,99 euro al mese (con due mesi di prova gratuita), che include anche 2TB di spazio di archiviazione su Google Drive e altri vantaggi.

Differenze tra i modelli di Gemini

La suddivisione dei modelli di Gemini in Nano 1.0, Pro 1.0 e Ultra 1.0 riflette la versatilità e la potenza di questo strumento. Il modello Nano 1.0 è progettato per attività su singoli dispositivi, ideale per applicazioni che richiedono meno risorse computazionali. Il modello Pro 1.0, disponibile gratuitamente, è adatto a una vasta gamma di attività e può essere utilizzato in diversi settori, dalla scrittura automatica di email alla generazione di contenuti per siti web. Infine, il modello Ultra 1.0 è destinato a compiti altamente complessi, come l'analisi dei dati su larga scala e la previsione delle tendenze di mercato.

La Potenza di Gemini Ultra 1.0

Il modello Ultra 1.0 di Gemini Advanced è estremamente potente, con i suoi 540 miliardi di parametri, superando persino il modello GPT-4 di ChatGPT, che ne ha 175 miliardi. Questa capacità consente a Gemini di comprendere e elaborare input multimodali, come testo, immagini, audio e video, rendendolo estremamente versatile e in grado di affrontare compiti complessi. Può essere utilizzato per migliorare la produttività, generare codice, pianificare eventi, creare documenti e molto altro, sebbene, come tutte le IA, possa occasionalmente fornire risposte imprecise o commettere errori.

Applicazioni pratiche di Gemini

Gemini offre una vasta gamma di applicazioni pratiche che lo rendono uno strumento indispensabile in molti settori. Ad esempio, nel customer service, Gemini può automatizzare le risposte ai clienti, migliorando l'efficienza e la soddisfazione del cliente. Nella sanità, può assistere i medici nell'analisi delle cartelle cliniche e nella formulazione di diagnosi preliminari. Nel settore finanziario, Gemini è in grado di analizzare dati finanziari complessi e prevedere le tendenze di mercato. Nell'educazione, fornisce supporto agli studenti attraverso tutor virtuali che possono spiegare concetti complessi e rispondere alle domande.

Le capacità di Gemini

Rispetto ad altri modelli di IA, Gemini è in grado di mantenere una coerenza e una pertinenza eccezionali nelle conversazioni prolungate. La sua capacità di comprendere il contesto in modo approfondito e di generare risposte personalizzate lo rende particolarmente utile in applicazioni che richiedono un alto grado di interazione umana. Ad esempio, in un ambiente aziendale, Gemini può assistere nella creazione di documenti complessi, offrire suggerimenti basati su dati in tempo reale e migliorare la collaborazione tra i team.

Il Futuro di Gemini e dell'IA

Il futuro di Gemini è promettente. Con il continuo sviluppo e miglioramento dei modelli linguistici, possiamo aspettarci che Gemini diventi ancora più potente e versatile. Le potenziali applicazioni sono infinite, dalla personalizzazione dei servizi al miglioramento delle operazioni aziendali, dall'innovazione nel campo della sanità alla trasformazione dell'educazione. Google continua a investire in ricerca e sviluppo per assicurare che Gemini rimanga all'avanguardia dell'innovazione tecnologica.

Conclusione

Gemini rappresenta un passo avanti significativo nel campo dell'intelligenza artificiale, grazie alla sua architettura avanzata, alla capacità di apprendere e comprendere il linguaggio umano, e alla sua versatilità nell'affrontare una vasta gamma di compiti. Con il supporto di Google, Gemini è destinato a diventare uno strumento fondamentale per aziende e individui che cercano di sfruttare al massimo le potenzialità dell'IA. Sebbene ci siano ancora sfide da affrontare, l'evoluzione continua di Gemini promette di ridefinire il futuro della tecnologia e delle nostre interazioni quotidiane con le macchine.

L'approfondimento e la comprensione di strumenti come Gemini non sono solo affascinanti, ma essenziali per navigare il futuro tecnologico in modo efficace. Questo articolo ha esplorato vari aspetti di Gemini, dalle sue origini e innovazioni alle applicazioni pratiche e alle sfide future. Con il continuo avanzamento dell'IA, possiamo aspettarci che modelli come Gemini diventino sempre più integrati nelle nostre vite, migliorando e ottimizzando innumerevoli processi e operazioni.

Entra in contatto con noi

Premessa

Ho deciso di scrivere questo articolo per mettere ordine tra le riflessioni e le deduzioni che ho maturato negli ultimi mesi relativamente al concetto di bias. Il bisogno di fare ordine è nato dalla confusione che si è generata in me nel momento in cui ho notato che il termine bias è diventato parte del linguaggio quotidiano assumendo, talvolta, accezioni per me ambigue.

Scrivendo questo articolo non nutro alcuna certezza o verità assoluta. Anzi, lo scrivo per appuntare quello che penso relativamente ai bias e lo faccio, come sempre, pubblicamente perché confido che possa trasformarsi in un’utile opportunità di confronto con chi ha la pazienza per leggere le mie riflessioni.

Prima di iniziare questa lettura, rilassati e ripeti con me:

Senza explainability l’artificial intelligence è inutile e pericolosa


Introduzione

In questo articolo parlo di bias e, come sempre, preferisco cominciare dalla definizione di bias alla quale faccio riferimento nelle mie riflessioni.

I bias sono la manifestazione di distorsioni sistematiche del giudizio frutto di euristiche cognitive delle quali abbiamo perso il controllo, ovvero scorciatoie mentali che usiamo per semplificare il processo decisionale che sono state spinte sino ad un tale livello di banalizzazione della realtà da perdere il contatto con la stessa realtà dalla quale si generano impattando negativamente sul modello decisionale adottato da qualsiasi agente intelligente biologico o artificiale (Kahneman & Egan, 2011).

I bias possono influenzare ogni modello decisionale in modo da renderlo inefficace. Anche laddove si pensa di avere approntato un modello decisionale basato su euristiche prive di bias, gli studi di Tversky dimostrano che questi assumono un ruolo fondamentale nell’analisi della realtà producendo conseguenze che non sono necessariamente rilevabili o rilevabili nel breve periodo.

La consapevolezza del ruolo strutturale e strutturante assunto dai bias nei processi decisionali basati su euristiche li rende paradossalmente un “falso problema” dei processi stessi. Un modello euristico basato su bias ammissibili e funzionali allo scopo del modello non rende il modello stesso privo di bias. Un processo decisionale nel quale non ci sono distorsioni pericolose, macroscopiche della realtà mi induce a pensare che i bias presenti nel modello sono invisibili alla nostra analisi ma efficaci nel condizionare il processo decisionale. Una costellazione ben orchestrata di bias assume nel processo decisionale la stessa meccanica dei piccoli piombi con i quali si equilibrano le ruote delle nostre autovetture: ad una determinata soglia manifestano un potente condizionamento del sistema. L’esistenza di questo processo di condizionamento fu testimoniato Alexander Nix, CEO di Cambridge Analytica, nel suo intervento “From Mad Men to Math Men” esposto alla conferenza Online Marketing Rockstars tenutasi ad Amburgo nel 2017. La forza potenzialmente cataclismica di questo condizionamento è stata testata attraverso i condizionamenti psicometrici che Cambridge Analytica ha attuato durante le elezioni politiche in Trinidad e Tobago del 2010 a favore dello United National Congress (UNC) attraverso la campagna “Do So”.

L’analisi di un modello decisionale non deve quindi soffermarsi sulla semplice individuazione della presenza di bias ovvi quali i bias razziali o di genere ma deve essere in grado di comprendere quanto la modalità di somministrazione dei singoli risultati dell’analisi compiuta è in grado di generare micro-condizionamenti strategici simili a quelli prodotti da AlphaGo con la mossa “U-37”.

La consapevolezza che il i bias non sono il vero problema di un modello decisionale mi è data anche dal fatto che i bias non sono la causa di una anomalia ma solo e sempre una mera conseguenza di quest’ultima. Per essere chiari, un bias sta all’anomalia come l’influenza sta all’infezione: è solo un sintomo.

Affermare che un sistema decisionale è affetto da bias è per me una ovvietà essendo l’intero processo decisionale basato quasi sempre su euristiche. Allo stesso tempo, parlare di bias è anche una ammissione di inadeguatezza. L’inadeguatezza è determinata dal fatto che curare un bias è l’equivalente di un trattamento sintomatico causato dalla incapacità di comprendere l’origine dell’anomalia e/o di correggere l’anomalia stessa.

I sistemi di intelligenza artificiale non sono esenti da bias perché, anche tali sistemi operano attraverso processi di clusterizzazione ovvero processi di astrazione che si basano su bias ammissibili e funzionali all’analisi.

In questo articolo espongo con approccio “passo-passo” il percorso logico che mi ha portato alle mie conclusioni, sinteticamente esposte già in questa introduzione con l’obiettivo di condividere con chi mi legge la consapevolezza che mitigare il rischio generato da dinamiche cognitive che si manifestano sotto forma di bias non esclude la presenza di bias il cui impatto è altrettanto grave ma non immediatamente riscontrabile dalla nostra capacità di valutazione.


I modelli decisionali sono, nella gran parte dei casi, basati su approcci euristici.

Sono sempre stato affascinato dai meccanismi con i quali la mente analizza il mondo e le relazioni umane. Ho letteralmente divorato la serie TV “Brain Games” targata National Geographic ed il saggio scritto da Sergio Della Sala e Michaela Dewar dal titolo “Mai fidarsi della mente” che, attraverso esperimenti al limite della magia, ci mostrano quanto sconosciuto sia, tutt'oggi, il cervello umano e quanto i meccanismi che lo governano nel quotidiano sforzo di analisi ed adattamento siano legati ad errori, ad illusioni del pensiero, ad incoerenze dei processi mentali, ad imperfezioni della memoria che portano a sviluppare vere e proprie scorciatoie decisionali.

Le scorciatoie decisionali sono la strategia adottata dal nostro cervello per risparmiare energia. Esse si manifestano tutte le volte che ci troviamo di fronte a sfide, problemi e decisioni da prendere per i quali si preferisce adottare un approccio “euristico” ovvero un approccio che fa uso di generalizzazioni, regole empiriche e assunzioni.

L’approccio euristico è un modello decisionale che si basa su un insieme di strategie, tecniche e processi creativi che ci aiutano a trovare soluzioni in modo più rapido e semplice. Con questo approccio le decisioni vengono prese considerando un numero limitato di alternative, con una consapevolezza parziale delle conseguenze di ciascuna di queste. Questo processo è guidato da "euristiche", che sono regole pratiche utilizzate per risolvere problemi o fare determinati tipi di calcolo e basate sulla consapevolezza che l'informazione disponibile non è mai perfetta e che le abilità umane sono limitate e fallibili. Come dice lo psichiatra Mauro Maldonato: “Diversamente dal calcolo formale, l'euristica è una soluzione immediata".

Le strategie, le tecniche e i processi creativi che compongono l’approccio euristico sono distorsioni utili della realtà. Queste distorsioni semplificano l’analisi dei fatti e mirano a fornire una visione soggettiva basata sulla consapevolezza che siamo in grado di riconoscere solo un numero limitato di alternative e siamo consci soltanto di alcune delle conseguenze di ciascuna alternativa. Nella maggior parte dei casi, queste distorsioni ci permettono di interpretare e, laddove possibile, prevedere la realtà in modo rapido ed efficace.


I modelli decisionali basati su euristiche sono caratterizzati da processi di semplificazione della realtà ed astrazione.

I processi di semplificazione della realtà sono basati su schemi e su categorie con le quali si organizza la conoscenza che utilizziamo nei processi di percezione, memoria e pensiero.

Gli schemi e le categorie che utilizziamo per organizzare la nostra conoscenza descrivono persone, oggetti ed eventi attraverso i soli dettagli caratterizzanti, comuni o più frequenti escludendo tutto ciò che possa essere ricondotto ad una specifica manifestazione fenomenica.

Gli schemi di conoscenza sono basati su associazioni che sono immediatamente disponibili alla nostra consapevolezza e rappresentano ciò che è più comune o considerato tipico. Per capirci, quando parlo della bellezza dei cani nessuno pensa alla bellezza del Bracco Italiano o dello Spinone Italiano perché tutti pensano all’immagine generica e soggettiva del cane che ci si è costruiti negli anni.

Gli schemi di conoscenza sono fondamentali per una corretta classificazione del mondo che richiede necessariamente l’attuazione di un processo di astrazione con il quale si crea un insieme di elementi non identici seppur appartenenti alla stessa categoria fenomenica.

I processi di astrazione sono fondamentali per una semplificazione dei processi di comprensione ed adattamento. Possiamo dire che sono alla base dei meccanismi che governano sopravvivenza ed evoluzione.

Senza un processo di astrazione saremmo incapaci di prendere decisioni perché ogni fenomeno produrrebbe un elemento a sé stante non accomunabile con altri simili. Si svilupperebbe la "sindrome da dipendenza ambientale" (Lhermitte, 1986) che rende incapaci di inibire azioni stimolate da ogni singolo input. In una condizione simile non esisterebbero le conifere o la singola specie di cui sono composte (es: pino silvestre, larice, abete, peccio) ma solo il singolo albero differente da un altro per la caratteristica assunta da ogni singola foglia.

Malgrado l’importanza dei processi di astrazione è condivisa da tutti, va ricordato che nelle astrazioni le eccezioni o la diversità non vengono prese in considerazione. Per questo motivo quando si parla degli africani non si pensa alla popolazione africana di pelle bianca, seppur esistente.

Questa tendenza degli schemi alla generalizzazione ed alla esclusione delle eccezioni porta a un pregiudizio nel momento in cui non disponiamo di informazioni sufficienti su ciò di cui stiamo parlando.


I processi di semplificazione della realtà possono generare anomalie che si manifestano sotto forma di bias cognitivi.

I processi di semplificazione che troviamo alla base del modello euristico presentano un difetto importante: il limite al quale si spingono è costituito solo dal buon senso di chi li applica. Per questo motivo, in alcuni casi, il processo euristico si spinge oltre la sola semplificazione della realtà e genera vere e proprie banalizzazioni dalle quali nascono preconcetti che, pur potendo essere derivati dalla realtà, non conservano più alcun legame oggettivo con la stessa.

La banalizzazione della realtà induce a sviluppare preconcetti che si riverberano nei processi decisionali attraverso inevitabili errori di valutazione che possono essere più o meno gravi. Tali errori, a prescindere dalla loro natura, sono genericamente chiamati “bias cognitivi” o più semplicemente “bias”.

I bias cognitivi sono, errori sistematici del pensiero che, inducendoci a deviare dalla logica o dalla razionalità, influenzano il modo in cui percepiamo la realtà, prendiamo le decisioni ed il modo in cui formuliamo i nostri giudizi.

La differenza che passa tra bias ed euristiche è, quindi, rappresentata dal fatto che le euristiche sono scorciatoie comode e rapide strettamente legate alla realtà e che portano a veloci conclusioni. I bias cognitivi sono anch’essi scorciatoie ma si manifestano attraverso pregiudizi che hanno perso ogni legame con la realtà e che si acquisiscono, nella maggior parte dei casi, senza spirito critico o giudizio.

Non è facile capire in quale punto un processo di semplificazione si trasforma in una banalizzazione dalla quale nasce un bias cognitivo. Ritengo che sia impossibile fissare una sorta di soglia che consenta di comprendere di essere in presenza di un processo di semplificazione del quale si è perso il controllo tanto da poterlo dichiarare disfunzionale al processo decisionale. Per questo motivo, forse, ci si accorge dell’esistenza di un bias sempre, per così dire, a fatto compiuto quando il processo decisionale ha manifestato i propri effetti nell’ambiente e sulle persone.


I processi di astrazione sono comuni a tutti gli agenti intelligenti.

Un mondo di unicità assolute nel quale non è possibile creare gruppi attraverso processi di astrazione è un mondo nel quale è impossibile ogni forma di vita intelligente. Per quanto possa sembrare irragionevole, organizzare la conoscenza per schemi e da questi per astrazioni è comune a tutti gli agenti intelligenti o teleologici anche di natura aliena (non umana). Per il mio cane gli uccelli sono tali a prescindere che rientrino nelle specie per le quali è stato selezionato ed addestrato a cacciare. Si potrebbe obiettare che il mio cane rincorre tutto quello che si muove in preda al solo istinto predatorio. Tuttavia la sua ritrosia a predare oggetti a lui sconosciuti è comune a tutti gli altri cani. Rammento ancora il modo in cui si è comportato quando ha visto, per la prima volta nella sua vita, un palloncino rotolare sul pavimento perché mosso dal vento e di come si è comportato nei successivi incontri con questa fenomenologia ambientale.

Le astrazioni non mancano nemmeno nelle intelligenze vegetali che attuano schemi di clusterizzazione nei processi di apprendimento e adattamento. Una testimonianza di tale capacità ci è data da Stefano Mancuso attraverso le sue osservazioni in merito ai riscontri raccolti dal naturalista e botanico francese Lamarck (1744-1829) relativamente ai comportamenti che la mimosa pudica, così chiamata perché chiude le sue foglie non appena viene sfiorata, mette in atto nel presumibile tentativo di difesa dagli erbivori.


I processi di astrazione sono presenti anche nei sistemi di intelligenza artificiale

Un aspetto specifico è, a mio parere, assunto dai sistemi di Intelligenza Artificiale (IA) che, pur non essendo forme di vita, operano come agenti teleologici e lo fanno attuando processi di astrazione e classificazione non dissimili da quelli prodotti da altre specie viventi. Come rilevato da Nello Cristianini, tutte le volte che un sistema IA attua una classificazione lo fa con un proprio costrutto teorico basato su una propria forma di intelligenza.

Non è possibile sapere quali sono le caratteristiche degli schemi di conoscenza che una IA adotta per distinguere un cane da un gatto o per classificare il mondo. Semmai lo potessimo scoprire, scopriremmo che non ha nulla a che vedere con i nostri criteri basati su dati sensoriali umani. Non mi stupirei di trovare in una IA una classificazione simile a quella proposta da Jorge Luis Borges in cui il mondo animale si divide in:

  1. animali appartenenti all’Imperatore;
  2. animali imbalsamati;
  3. animali ammaestrati;
  4. maialini;
  5. sirene;
  6. animali favolosi;
  7. cani randagi;
  8. animali inclusi nella presente classificazione;
  9. animali che tremano come se fossero pazzi;
  10. animali innumerevoli;
  11. animali disegnati con un sottile pelo di cammello;
  12. altri;
  13. animali che hanno appena rotto un vaso;
  14. animali che da lontano sembrano mosche.

La questione dei bias che si manifestano nei sistemi IA è molto più complessa se si considera il fatto che le correlazioni statistiche che sono utilizzare nei processi di astrazione sono spesso, se non sempre, definite su dati che, oltre ad essere naturalmente affetti da bias, potrebbero celare legami statistici a correlazione debole non evidenti all’uomo ed in grado di generare effetti negativi sul processo di analisi e decisione. Per capire l’importanza delle correlazioni deboli e della loro pericolosità, riporto una bella definizione prodotta dal team di Ammagamma che, a mio parere, sul tema fa scuola e divulgata David Bevilacqua: “le [correlazioni deboli sono] relazioni più flebili tra le variabili che influenzano un fenomeno [e sono] di difficile lettura e interpretazione. La nostra mente non è in grado di coglierle, a differenza delle correlazioni forti, ma dotandosi di un modello matematico è possibile individuarle [ed usarle a nostro vantaggio]”. La consapevolezza dell’importanza che le correlazioni deboli assumono nei processi di astrazione generati da una IA viene anche dagli studi condotti da James Pennebaker che dimostrano la fattibilità di una segmentazione psicometrica di un utente attraverso la sola struttura linguistica adottata nell’esposizione delle proprie opinioni. Grazie ai suoi studi ed alle correlazioni deboli, Facebook può clusterizzare gruppi di persone a partire dai soli like espressi sulle immagini e sui post pubblici degli utenti.

Riconoscere l’esistenza dei processi di astrazione in ogni agente intelligente consente di comprendere che i bias possono essere presenti in ogni processo euristico a prescindere dalla natura dell’agente che lo pone in essere. Inoltre, trovo la provocazione di Borges, un utile strumento a comprendere che i nostri principî di classificazione e di ordinamento del mondo sono tutt'altro che ovvi e naturali essendo possibile ipotizzare infiniti altri modi di organizzare gli oggetti della nostra esperienza come, per esempio, quello paradossale che ho riportato sopra.


Breve riepilogo

A questo punto del mio ragionamento è bene che faccia un breve riepilogo di quanto ho tentato di esporre fin qui.

Punto 1 - I processi euristici si basano su semplificazioni della realtà che, anche se funzionali al raggiungimento del risultato, sono la matrice dalla quale nascono i bias.

Punto 2 - I bias, essendo legati ai processi di semplificazione, non sono il frutto di un determinato livello di astrazione ma, piuttosto, il frutto di un limite determinato solo dal livello di inaffidabilità che il nostro buon senso trova ammissibile nei nostri processi cognitivi e decisionali. Nei termini esposti, il bias è presente in ogni processo euristico e tutte le volte che ci si discosta dal dato oggettivo.

Punto 3 - I processi di semplificazione sono necessari per attuare i processi di astrazione che ci consentono di comprendere il mondo a prescindere da specifiche manifestazioni fenomeniche. Ho anche riscontrato questa capacità di astrazione in agenti dotati di intelligenza aliena alla nostra.


Prima conclusione: i processi euristici sono basati su bias

Il bias, inteso come forma deviata dei meccanismi di semplificazione ed astrazione, è presente in ogni processo euristico perché è attraverso proprio all’adozione di uno o più scorciatoie che si può eludere l’adozione di un approccio logico-scientifico che è sempre molto dispendioso in termini di risorse di calcolo e tempo di acquisizione e verifica dei dati.

La presenza di bias in tutti i processi euristici è dimostrata anche dall’esperimento fatto dalla psicologa Emily Pronin che, nel 2002, ha descritto il “bias blind spot” come la naturale inclinazione della logica umana di considerare noi stessi sempre più obiettivi di chiunque altro. Un’altra dimostrazione del legame bias-euristiche ci viene dallo psicologo Paolo Legrenzi e il neurologo Carlo Umiltà che, nel libro "Molti inconsci per un cervello", scrivono:

Dato l'enorme flusso di informazioni, noi tendiamo a selezionare quelle che già conosciamo, quelle con cui siamo d'accordo, quelle che possiamo assimilare meglio grazie alla presenza di schemi e categorie mentali che ci sono familiari e che sono già consolidate. Inoltre, noi siamo inclini a condividere queste informazioni con chi la pensa come noi e con chi sappiamo che potrà apprezzare perché la pensa come noi. Queste nuove forme di vita danno luogo a una sorta di inconscio collettivo che si traduce nella radicalizzazione delle opinioni della persone. I singoli sono confortati dalla condivisione di una corrente di opinioni che è semplice, chiara, e che richiede bassi sforzi cognitivi e attentivi

Il ruolo dei bias nei processi cognitivi ha portato ad una attenta classificazione degli stessi che, in assenza di proposte tassonomiche o di modelli di riferimento, negli anni ha generato un elenco di oltre 150 voci ripartite in quattro macro-aree.

The Cognitive Bias Codex by John Manoogian

Con una lista tanto ampia di voci, trovo ovvio considerare i bias come parte inscindibile delle euristiche, malgrado in alcuni casi ne diventino l’elemento che mostra la fallacità di alcuni processi di semplificazione/astrazione.

L’idea che i processi euristici siano basati su bias più o meno efficaci non piace a nessuno perché testimonia che ogni scelta è sempre sbagliata o, se si preferisce, giusta sino a prova contraria. Questo scenario, tuttavia, non è deprecabile quanto sembra dal momento che è proprio grazie ai bias che è possibile accelerare i processi di analisi, migliorare il rilevamento dei fattori critici di scelta in situazioni mutevoli o incerte e giungere ad un modello decisionale più snello. Questo è dovuto al fatto che il bias è strettamente legato agli schemi ed alle categorie con le quali si organizza la conoscenza che è alla base dei processi di percezione, memoria e pensiero.


Seconda conclusione: i bias non sono un falso problema

Le euristiche si basano necessariamente su bias anche se, nella gran parte delle circostanze, tali bias non manifestano effetti dannosi sul contesto o sull’oggetto delle nostre decisioni. In una simile condizione, per quanto la cosa non piaccia, non serve più chiederci se una decisione è presa sulla scorta di un modello i cui meccanismi manifestano o meno dei bias. Piuttosto serve chiedersi quale sia la rilevanza assunta dai bias certamente presenti nel processo decisionale in essere. In sostanza, dal momento che le scelte sono sempre basate su errori di valutazione, concentriamoci sulla distinzione tra errori gravi ed errori poco irrilevanti i cui effetti sono, tuttavia, solo apparentemente a basso impatto.


Terza conclusione: i bias non sono una spiegazione

La visione del bias come problema che spiega l’anomalia palesata a valle di un processo decisionale è fuorviante perché trasforma i bias da effetto di una anomalia in causa dell’anomalia. I bias sono sempre il sintomo di un problema che affligge il modello decisionale e, per questo motivo, non esistono se non come manifestazione distorta di un processo cognitivo. Per essere più chiaro, non penso sia corretto dire che l’anomalia riscontrata in un processo decisionale sia riconducibile ad un bias o sia prodotta da un bias. Innanzi ad una anomalia si dovrebbe dire che il problema dalla quale si genera si manifesta sotto forma di uno o più bias.

L’interpretazione dei bias come manifestazione sintomatica di un problema cognitivo impone alcune riflessioni. La prima è rappresentata dal fatto che la correzione dell’anomalia non passa dalla correzione dei bias attraverso i quali si manifesta l’anomalia (sarebbe come abbassare la febbre invece di curare l’infezione). La seconda è rappresentata dal fatto che l’anomalia che riscontriamo attraverso uno o più bias non è detto che non ne abbia prodotto altri di eguale importanza ma non ancora individuati.


Quarta conclusione: i bias mostrano i limiti delle nostre capacità di presidio delle IA

Un bias inteso come effetto e non come causa impone l’adozione di un approccio completamente diverso da quello attualmente adottato per l’analisi dell’efficienza dei sistemi IA in cui si deve essere necessariamente in grado di individuare quale processo di astrazione ha generato l’anomalia che identifichiamo come bias. Per compiere una simile analisi delle cause, si deve conoscere nel dettaglio i parametri che concorrono alla generazione della decisione e, ancora di più, si deve conoscere quale combinazione di “segnali deboli” genera la specifica impronta statistica che ha generato l’anomalia. Ad oggi, non esiste alcun modo per essere certi del modello che ha generato la risposta.

La presenza dei bias non è, quindi, utile a spiegare qualcosa dal momento che i bias sono presenti in ogni processo euristico e sono presenti tanto nei processi di analisi i cui esiti sono conformi alle aspettative quanto in quelli che non producono i risultati attesi.

Dire che un sistema decisionale è affetto da bias significa sapere perché si è generato il bias, perché non lo si è evitato, perché correggendo l’anomalia non se ne generi uno differente in una rincorsa alla complessità tipica dei primi service pack della Microsoft degli anni ‘90.

Ma se il bias è invece una peculiarità del modello decisionale? Un modello decisionale è sempre focalizzato su un set contenuto di dati. Ciò significa che, anche se non ci fossero fenomeni di discriminazione estremi, ci troveremmo comunque in un contesto nel quale non è possibile escludere che non si sia in presenza di un bias degno della famosa mossa “U-37” di AlphaGo i cui effetti si mostrano come un veleno in un tempo ed in una modalità tale da rendere impossibile comprendere l’origine del male ed individuare una cura adeguata.

Senza un sistema decisionale ad attenzione selettiva, saremmo alla mercé degli stimoli ambientali, anche se irrilevanti o incoerenti con ciò che stiamo facendo. Potremmo pensare che sia possibile farci supportare da una IA nel processo di lettura dei dati ma, anche in questo caso, nessuno potrebbe escludere che l’agente adottato a nostro supporto non cada esso stesso vittima della complessità del mondo sviluppando l’equivalente tecnologico della "sindrome da dipendenza ambientale" (Lhermitte, 1986) che rende incapaci di inibire azioni stimolate da ogni singolo input.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Da qualche anno contribuisco a sviluppare soluzioni in ambito AI avvalendomi della competenza di un ristretto e preparato gruppo di colleghi e di un Think Tank, con il quale mi piace condividere i dubbi e le perplessità che maturo addentrandomi in questo ambito tecnologico. Negli ultimi tempi le mie riflessioni sono accompagnate da una sensazione di  incompiutezza che stamattina sono riuscito a mettere a fuoco dopo essermi imbattuto nell’opera di Robert Silvers intitolata “Barack Obama, 2009”.

In questo fotomosaico su alluminio che possiamo apprezzare nel dettaglio cliccando qui, l’artista raffigura l’ex presidente USA attraverso una tecnica con la quale, come in un mosaico, tante piccole foto sono combinate per dare vita ad un’unica grande immagine. L’opera di Silvers raffigura la visione che l’artista ha di Barack Obama attraverso le pagine sulle quali sono riportati gli articoli che parlano di lui e della sua presidenza. La caratteristica sostanziale della tecnica del fotomosaico è data dal fatto che, a differenza del mosaico, ogni tessera è un'immagine a sé stante. Ciò crea un effetto affascinante che si sviluppa su due livelli e che impone all’osservatore di porsi su differenti piani di osservazione tutti indispensabili per la comprensione di quanto è rappresentato. Ciò si ribalta nell’opera di Silvers nella possibilità data all’osservatore di costruirsi una propria immagine del personaggio Obama leggendo ogni singolo articolo oppure guardare l’immagine complessiva che emerge dall’insieme grafico di tutti gli articoli e rappresenta l’immagine soggettiva che l’artista si è costruito sul personaggio attraverso tali articoli.

Come nel fotomosaico di Silvers, anche nell’universo AI ho la sensazione che le singole componenti tecnologiche siano solo singole immagini di una tecnologia più ampia e complessa che vada vista da una differente prospettiva utile a farci comprendere cosa sia realmente una AI.

Fonte articolo: Linkedin Article di Vincenzo Gioia

Entra in contatto con noi

Introduzione

Nel corso degli ultimi decenni, le città di tutto il mondo hanno affrontato una serie di sfide crescenti legate all'urbanizzazione, tra cui l'aumento del traffico, l'inquinamento atmosferico e la perdita di qualità della vita. Per rispondere a queste sfide, l'urbanista Carlos Moreno ha proposto il concetto della "città di 15 minuti". Questo modello, che mira a creare comunità più vivibili e sostenibili, sta guadagnando attenzione globale. In questo articolo esploreremo i principi della città di 15 minuti, i suoi benefici, le sfide della sua implementazione e alcuni esempi di città che stanno adottando questo approccio.

I principi della città di 15 minuti

Il concetto della città di 15 minuti si basa su quattro principi fondamentali:

Prossimità: tutti i servizi essenziali, inclusi lavoro, istruzione, negozi, servizi sanitari e spazi ricreativi, dovrebbero essere raggiungibili a piedi o in bicicletta in un massimo di 15 minuti dalla propria abitazione. Questo riduce la necessità di lunghi spostamenti quotidiani.

Diversità: le aree urbane dovrebbero ospitare una varietà di usi del suolo. Questa diversità supporta una gamma di attività economiche e sociali, rendendo le comunità più resilienti e dinamiche.

Inclusività: le città di 15 minuti devono garantire accesso equo ai servizi per tutte le comunità, indipendentemente dal reddito, dall'etnia o dallo stato sociale. Questo principio promuove l'uguaglianza e la coesione sociale.

Sostenibilità: ridurre l'uso dell'automobile e promuovere mezzi di trasporto più sostenibili, come camminare e andare in bicicletta, diminuisce l'impatto ambientale delle città, contribuendo a combattere il cambiamento climatico e migliorare la qualità dell'aria.

I benefici della città di 15 minuti

Adottare il modello della città di 15 minuti porta con sé una serie di benefici significativi:

Riduzione del traffico e dell'inquinamento: con meno persone che si spostano in auto, si riduce il traffico e, di conseguenza, l'inquinamento atmosferico. Questo migliora la qualità dell'aria e riduce le emissioni di gas serra.

Miglioramento della salute: camminare e andare in bicicletta sono attività fisiche che migliorano la salute cardiovascolare e mentale. Inoltre, avere accesso a spazi verdi e strutture sportive nelle vicinanze promuove uno stile di vita più attivo.

Coesione sociale: le città di 15 minuti favoriscono una maggiore interazione tra i residenti. La presenza di spazi pubblici e comunitari facilita la socializzazione e rafforza i legami di vicinato.

Resilienza economica: la diversificazione delle attività economiche locali rende le comunità più resilienti a crisi economiche. Le piccole imprese locali possono prosperare in un ambiente dove i residenti fanno la spesa e utilizzano servizi nelle vicinanze.

Qualità della vita: ridurre il tempo dedicato agli spostamenti quotidiani libera tempo per altre attività, migliorando il benessere generale dei cittadini. La disponibilità di servizi e infrastrutture a breve distanza rende la vita quotidiana più semplice e piacevole.

Smart City e città di 15 minuti: gli aspetti tecnologici

Le tecnologie smart svolgono un ruolo cruciale nel supportare il modello della città a 15 minuti, rendendo le aree urbane più efficienti, sostenibili e vivibili. Uno degli strumenti fondamentali è l'Internet of Things (IoT), che utilizza sensori per raccogliere dati in tempo reale su traffico, qualità dell'aria, consumo energetico e disponibilità dei servizi. Questi dati possono essere analizzati per ottimizzare la gestione delle risorse urbane e migliorare la qualità della vita dei cittadini.

Le piattaforme digitali sono un altro elemento chiave, facilitando l'accesso ai servizi urbani. Applicazioni mobili e portali online permettono ai residenti di prenotare appuntamenti medici, trovare negozi locali, partecipare a eventi comunitari e utilizzare trasporti pubblici in modo più efficiente. La mobilità intelligente, che include sistemi di trasporto pubblico integrati e servizi di bike-sharing e car-sharing, contribuisce a ridurre la dipendenza dalle auto private, diminuendo così traffico e inquinamento.

Infine, le tecnologie di intelligenza artificiale (AI) e machine learning possono essere utilizzate per prevedere e rispondere alle esigenze della città in modo proattivo. Ad esempio, algoritmi avanzati possono ottimizzare i percorsi dei trasporti pubblici, migliorare la gestione dei rifiuti e aumentare la sicurezza urbana attraverso la sorveglianza intelligente.

Le sfide dell'implementazione

Nonostante i numerosi benefici, l'implementazione del modello della città di 15 minuti presenta diverse sfide:

Pianificazione e infrastrutture: riorganizzare le città esistenti per conformarsi al modello richiede un notevole investimento in pianificazione urbana e infrastrutture. Questo include la creazione di piste ciclabili, marciapiedi sicuri e spazi pubblici adeguati.

Equità sociale: garantire che tutti i quartieri, inclusi quelli meno abbienti, abbiano accesso equo ai servizi è fondamentale. Ciò richiede politiche che evitino la gentrificazione e promuovano l'inclusione sociale.

Cambiamento culturale: adottare il modello della città di 15 minuti richiede un cambiamento nelle abitudini e nella mentalità dei cittadini, che potrebbero essere abituati a dipendere dall'auto. Educazione e sensibilizzazione sono cruciali per il successo del modello.

Supporto politico e pubblico: il sostegno dei governi locali e nazionali, così come della popolazione, è essenziale per la realizzazione del modello. Questo può includere incentivi per l'uso di trasporti sostenibili e politiche di sviluppo urbano orientate alla sostenibilità.

Esempi di città di 15 minuti

Alcune città stanno già facendo passi concreti verso l'adozione del modello della città di 15 minuti:

Parigi, Francia: la sindaca Anne Hidalgo è una delle principali sostenitrici del modello della città a 15 minuti. Parigi sta implementando politiche per ridurre il traffico automobilistico, aumentare gli spazi verdi e migliorare l'accessibilità ai servizi essenziali. Un esempio è la creazione di "super-îlots" dove il traffico automobilistico è limitato e le strade sono riservate a pedoni e ciclisti.

Melbourne, Australia: la città ha adottato il piano "Plan Melbourne" che prevede lo sviluppo di 20 "città a 20 minuti" all'interno dell'area metropolitana. Questo piano mira a garantire che tutti i residenti possano accedere ai servizi essenziali entro un breve raggio dalla loro abitazione.

Portland, Stati Uniti: Portland è conosciuta per le sue politiche di urbanistica sostenibile e ha iniziato a incorporare elementi del modello della città a 15 minuti nel suo piano di sviluppo urbano. Questo include la promozione di quartieri pedonali e ciclabili, così come l'incentivazione delle piccole imprese locali.

La Smart City e la città comoda: il contributo di Giulia Agrosì

Nel suo libro "La Smart City e la città comoda", Giulia Agrosì approfondisce ulteriormente i concetti di smart city e di "città comoda", esplorando come le tecnologie digitali possano essere integrate nelle politiche urbane per migliorare la qualità della vita. Il concetto di "città comoda" si allinea strettamente con quello della città di 15 minuti, enfatizzando l'importanza di una pianificazione urbana centrata sui cittadini.

Agrosì discute l'uso di tecnologie smart come sensori IoT, piattaforme digitali e sistemi di mobilità intelligente per creare città più efficienti e sostenibili. Questi strumenti possono supportare il modello della città di 15 minuti rendendo i servizi urbani più accessibili e migliorando la gestione delle risorse urbane.

Il libro pone anche una forte enfasi sull'inclusività e la sostenibilità, temi chiave per le città di 15 minuti. Agrosì sottolinea l'importanza di garantire che tutti i cittadini, indipendentemente dal reddito o dallo status sociale, abbiano accesso equo ai servizi essenziali. Inoltre, promuove la creazione di spazi verdi e l'adozione di pratiche edilizie sostenibili per migliorare la qualità della vita e ridurre l'impatto ambientale.

Conclusione

Il modello della città di 15 minuti rappresenta una visione innovativa e sostenibile per il futuro delle aree urbane. Promuovendo la prossimità, la diversità, l'inclusività e la sostenibilità, questo approccio può migliorare significativamente la qualità della vita dei cittadini, ridurre l'impatto ambientale delle città e creare comunità più coese e resilienti. Tuttavia, la sua implementazione richiede una pianificazione attenta, investimenti in infrastrutture e un forte impegno politico e pubblico. Con il giusto supporto, le città a 15 minuti potrebbero diventare la norma, trasformando le nostre città in luoghi più vivibili e sostenibili.

Se vuoi approfondire il tema della città di 15 minuti o scoprire le innovazioni tecnologiche in grado di abilitare una transizione verso la Smart City, contattaci usando il form che trovi in fondo a questa pagina.

Entra in contatto con noi

Introduzione

Le Nazioni Unite prevedono che entro il 2050, due terzi della popolazione mondiale risiederà nelle aree urbane. In Europa, questa tendenza è ancora più marcata, con il 75% dei cittadini che già vive nelle città, secondo Eurostat. Questa rapida urbanizzazione mette a dura prova le infrastrutture e i sistemi gestionali esistenti, evidenziando la necessità di soluzioni innovative. Le Smart City emergono come risposta a queste sfide, puntando a trasformare le aree urbane in centri di sostenibilità e efficienza attraverso le tecnologie avanzate, in particolare l'Internet of Things (IoT).

Le città, sebbene occupino solo il 2-3% della superficie terrestre, sono responsabili del 70% delle emissioni di anidride carbonica e di un significativo consumo energetico. Questa elevata concentrazione di persone e attività le rende uno dei principali contributori ai cambiamenti climatici. La sfida è quindi quella di integrare efficacemente persone, infrastrutture e tecnologie per minimizzare l'impatto ambientale e migliorare la qualità della vita urbana.

L'IoT come soluzione

L'Internet of Things (IoT) rappresenta una soluzione strategica e promettente per affrontare le complesse problematiche urbane. Con la sua capacità di automatizzare la raccolta e l'analisi dei dati, l'IoT facilita decisioni tempestive e informate, migliorando sostanzialmente vari aspetti della vita urbana.

Qualità della vita

I sensori IoT svolgono un ruolo cruciale nel monitoraggio ambientale continuo. Essi raccolgono dati in tempo reale sulla qualità dell'aria, rintracciando e misurando tutte le sostanze che possono essere dannose per l'essere umano. Allo stesso modo, sensori installati nelle reti idriche monitorano la qualità dell'acqua, rilevando eventuali contaminazioni e variazioni del pH in tempo reale, garantendo così l'accesso a risorse idriche sicure. Nei contesti urbani, i sensori per l'inquinamento acustico aiutano a identificare le zone dove il rumore supera i limiti consigliati, permettendo agli amministratori di prendere provvedimenti, come la creazione di zone a traffico limitato. Un altro esempio significativo è l'uso di sensori nei raccoglitori di rifiuti per monitorarne il riempimento, ottimizzando così le rotte di raccolta e riducendo le emissioni dovute ai mezzi di servizio.

Viabilità e trasporti

La gestione del traffico urbano beneficia enormemente delle tecnologie IoT. Sensori e telecamere installati lungo le strade raccolgono dati su flussi di traffico, congestioni e incidenti, facilitando una gestione dinamica dei semafori per ottimizzare i tempi di percorrenza. Applicazioni di IoT consentono agli automobilisti di visualizzare in tempo reale mappa dei parcheggi disponibili, aiutando a ridurre il tempo speso in cerca di un posto. Inoltre, l'integrazione di sensori IoT nei mezzi pubblici offre ai gestori la possibilità di monitorare lo stato dei veicoli e di intervenire prontamente in caso di anomalie o ritardi, assicurando così un servizio più affidabile e efficiente.

Illuminazione intelligente

L'illuminazione urbana è un altro settore che trae vantaggio dall'adozione dell'IoT. I sensori di luminosità e movimento possono regolare l'intensità della luce nelle strade in base alla presenza effettiva di persone o veicoli, massimizzando l'efficienza energetica e riducendo l'inquinamento luminoso. Questo non solo consente di risparmiare energia, ma migliora anche il comfort visivo e la sicurezza nelle ore notturne.

Sicurezza pubblica

L'IoT contribuisce significativamente al miglioramento della sicurezza urbana attraverso sistemi integrati di videosorveglianza e sensoristica avanzata. Questi sistemi permettono di rilevare e rispondere a situazioni di emergenza in modo più rapido e efficace. Per esempio, videocamere intelligenti possono analizzare flussi video in tempo reale per riconoscere comportamenti sospetti o situazioni di pericolo, come assembramenti improvvisi o incidenti stradali, attivando automaticamente le risposte di emergenza appropriate.

Gestione sostenibile delle risorse idriche

Il monitoraggio avanzato delle infrastrutture idriche tramite l'IoT rappresenta una svolta cruciale per la sostenibilità urbana. Sensori specifici installati nelle reti idriche non solo identificano contaminazioni e garantiscono la sicurezza dell'acqua potabile, ma sono fondamentali anche nel rilevamento di perdite lungo le condotte. Questo aspetto è vitale in un contesto globale dove la risorsa idrica sta diventando sempre più scarsa e preziosa. Identificando rapidamente le perdite, è possibile intervenire prontamente per ripararle, riducendo gli sprechi significativi di acqua e minimizzando l'impatto ambientale. Tale gestione efficiente non solo conserva una risorsa critica ma riduce anche i costi operativi e l'impronta ecologica delle città.

Sicurezza delle infrastrutture

L'uso dei sensori IoT per il monitoraggio delle infrastrutture urbane offre un ulteriore livello di sicurezza, essenziale per la prevenzione delle catastrofi. Sensori installati su ponti, viadotti, gallerie, edifici e acquedotti possono rilevare variazioni e anomalie che potrebbero preannunciare cedimenti strutturali. Questo monitoraggio in tempo reale permette l'applicazione di strategie di manutenzione preventiva e predittiva, notevolmente più economiche rispetto agli interventi post-danno. La manutenzione predittiva non solo abbassa i costi di gestione, ma riduce drasticamente i rischi per la sicurezza pubblica, garantendo la longevità e l'affidabilità delle infrastrutture vitali.

Conclusione: verso un futuro intelligente e sostenibile

L'adozione dell'IoT nelle Smart City rappresenta molto più di un progresso tecnologico: è un imperativo strategico per la sostenibilità urbana e l'innalzamento della qualità della vita. L'implementazione efficace di queste tecnologie richiede una visione olistica che trascenda i confini settoriali e si basi su una collaborazione sinergica tra enti pubblici, imprese private e comunità locali. Tale collaborazione è essenziale per costruire infrastrutture resilienti, promuovere una gestione sostenibile delle risorse e garantire una migliore qualità della vita per tutti i cittadini.

In questo contesto, l'integrazione dell'Intelligenza Artificiale (AI) con l'IoT si rivela cruciale. L'AI amplifica il potenziale dell'IoT attraverso algoritmi avanzati che possono analizzare grandi volumi di dati raccolti dai sensori in tempo reale. Questa capacità di apprendimento e miglioramento continuo permette non solo di ottimizzare le operazioni urbane in maniera proattiva, ma anche di prevedere tendenze e comportamenti, migliorando significativamente la pianificazione urbana e la risposta a eventi imprevisti. Ad esempio, l'AI può prevedere picchi di domanda energetica o acquatica e regolare automaticamente le risorse per massimizzare l'efficienza e ridurre gli sprechi. Allo stesso modo, sistemi AI integrati possono migliorare la sicurezza pubblica analizzando flussi video per riconoscere comportamenti sospetti o emergenze in tempo reale, dirigendo le risorse dove sono più necessarie.

L'adozione di questa tecnologia avanzata presenta anche sfide significative, inclusa la necessità di garantire la privacy dei cittadini e la sicurezza dei dati in un'era sempre più digitale. Affrontare questi problemi con politiche e regolamenti adeguati sarà fondamentale per mantenere la fiducia pubblica e promuovere un'adozione diffusa delle tecnologie IoT e AI.

Se vuoi maggiori informazioni sull’integrazione tra Intelligenza Artificiale e Internet of Things nell’ambito della gestione delle città, contattaci usando il form che trovi in fondo a questa pagina.

Entra in contatto con noi

logo-frontiere
LinkedinInstagramYoutubeFacebookTwitter
Privacy policy
Copyright 2024 Frontiere
FRONTIERE Srl
Sede legale in Via Oslavia, 6 - 00195 Roma, RM | C.F. e P.IVA 17464921000
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram