Forum

Benvenuti nel Forum della Fondazione Olitec. Questo spazio è stato creato per promuovere la trasparenza e facilitare la comunicazione tra la Fondazione Olitec e tutti coloro che desiderano entrare a far parte del nostro team, in particolare per il ruolo di Sales. Il nostro forum è uno strumento di dialogo aperto e costruttivo dove i candidati possono porre domande, condividere esperienze e ottenere risposte dirette sui vari aspetti del processo di selezione e sulle opportunità di carriera offerte dalla Fondazione.

All’interno del forum troverete topic dedicati ad argomenti specifici su cui potrete approfondire informazioni relative al ruolo, al processo di selezione e alla cultura aziendale della Fondazione Olitec. Inoltre, avrete la possibilità di caricare le vostre domande e consultare le risposte fornite ad altri quesiti posti dai candidati, creando così una rete di informazioni condivisa e trasparente.

Questo spazio è pensato anche per favorire la condivisione delle esperienze personali: potrete raccontare il vostro percorso e scoprire come altri candidati stanno affrontando questa opportunità. Vi invitiamo a partecipare attivamente, a rispettare gli altri membri della community e a mantenere un tono di dialogo collaborativo e positivo.

o Registrati per creare messaggi e topic.

Dall’Iper alla Superficialità: il tradimento dei divulgatori improvvisati nel dibattito uomo-macchina

Negli ultimi anni, e con particolare intensità negli ultimi mesi, si è assistito a un’esplosione incontrollata del dibattito pubblico, accademico e mediatico sul tema del rapporto uomo-macchina. L’intelligenza artificiale generativa, la robotica cognitiva, la simbiosi neurale, le interfacce cervello-computer, i gemelli digitali, i sistemi adattivi e le tecnologie immersive sono diventati oggetto ricorrente di dichiarazioni, articoli, conferenze, tavole rotonde e talk show, spesso animati da figure che nulla hanno a che vedere con le discipline che queste tecnologie effettivamente studiano, progettano, testano, validano o applicano. Questo fenomeno, che a una lettura superficiale potrebbe sembrare espressione di un entusiasmo diffuso e democratico nei confronti dell’innovazione, cela in realtà una distorsione profonda e insidiosa: la crescente banalizzazione del pensiero tecnico-scientifico e la sovraesposizione di opinioni infondate, quando non apertamente errate, che si travestono da riflessioni strategiche o filosofiche.

Il rapporto uomo-macchina è uno dei nodi più delicati della contemporaneità, non solo perché tocca il cuore dell’identità umana nell’era digitale, ma perché ha già effetti strutturali nella vita quotidiana, nell’economia, nei processi decisionali e nella formazione delle nuove generazioni. Eppure, la qualità del dibattito pubblico su questi temi è spesso compromessa dalla presenza di voci improvvisate, che attingono da suggestioni superficiali, da letture parziali, da una cultura del “sentito dire” travestita da pensiero critico. In questo contesto, “uomo-macchina” è diventato uno slogan, un simbolo svuotato di contenuto reale, ripetuto con tono evocativo, talvolta solenne, come se bastasse nominarlo per farne intuire la portata epocale. Ma la portata di un fenomeno non si misura dalla sua frequenza nei discorsi pubblici, bensì dalla profondità con cui viene compreso, dalla capacità di analizzarne le implicazioni, e dalla competenza di chi si assume la responsabilità di guidare la riflessione collettiva.

Il problema, dunque, non è che se ne parli. Al contrario, è un bene che si rifletta sul rapporto uomo-macchina, che si esplorino i suoi risvolti etici, sociali, antropologici, politici. Il vero problema è che sempre più spesso se ne parla senza averne la minima cognizione di causa. Le dimensioni autentiche di questo rapporto sono straordinariamente complesse: includono componenti biologiche, cognitive, psicologiche, etiche, ingegneristiche, computazionali, giuridiche e persino teologiche. Richiedono anni di studio, competenze trasversali, una solida capacità di modellazione sistemica, e – soprattutto – una consapevolezza critica dei limiti di ciascuna disciplina. Eppure oggi si assiste a un paradosso grottesco: più cresce la complessità reale della tecnologia, più si moltiplicano le semplificazioni del discorso pubblico. Come se la densità del reale spaventasse, e allora la si trasformasse in racconto da salotto, da palco, da social.

In molti casi, chi prende parola su questi temi non ha mai scritto un algoritmo, non ha mai seguito un’architettura neurale, non ha mai partecipato a un progetto di intelligenza artificiale distribuita, non ha mai gestito un dataset sensibile, non ha mai validato un modello predittivo, non ha mai nemmeno osservato il comportamento di un sistema interattivo in ambienti immersivi. Tuttavia si pronuncia con sicurezza assoluta su “come saremo”, “dove andremo”, “cosa significherà essere umani nel futuro”, “quale coscienza nascerà dalle macchine”. L’illusione dell’intellettuale trasversale – quello che crede che l’intuizione basti a colmare la lacuna della competenza – è oggi una delle minacce più gravi alla qualità del dibattito culturale e politico sulle tecnologie emergenti. Il risultato è una confusione epistemica, dove la voce dell’esperto si mescola a quella dell’improvvisato, e il pubblico perde progressivamente la capacità di discernere tra chi ha conoscenza e chi ha solo esposizione.

Ma questo non è un problema solo epistemologico o accademico: è anche, e soprattutto, una questione etica, educativa e politica. Quando una narrazione falsata si insinua nel dibattito pubblico, produce effetti tangibili e pericolosi: genera scelte sbagliate nei governi, indirizzi legislativi distorti, aspettative collettive infondate, illusioni mediatiche che alimentano paure irrazionali o entusiasmi mal riposti. Si crea una distanza sempre più ampia tra l’immaginario sociale e la reale traiettoria della ricerca scientifica. Si alimenta una retorica tossica, dove la macchina è ora vista come nemico apocalittico, ora come oracolo salvifico, ma quasi mai come strumento da conoscere, padroneggiare, regolare e umanizzare con responsabilità.

E questo è ancora più grave in un momento storico in cui le vere questioni sul rapporto uomo-macchina sono urgenti e concrete. Parliamo dell’impatto delle decisioni automatizzate in ambito sanitario, della sostituzione del giudizio umano nei sistemi di sorveglianza algoritmica, della sostenibilità energetica dei supercomputer, della proprietà dei dati sensibili, della formazione dei giovani nei confronti dell’IA, dell’accesso equo alle tecnologie, della trasparenza degli algoritmi nei processi democratici. Temi che richiederebbero un confronto lucido, profondo, multidisciplinare e soprattutto fondato sulla verifica rigorosa delle competenze e delle fonti. Temi che non possono essere lasciati alla narrazione da talk show o alle profezie autoreferenziali di chi ignora le basi stesse della tecnologia di cui parla.

Serve, ora più che mai, un nuovo patto culturale tra scienza, società e comunicazione. Un patto che premi l’autenticità della conoscenza, la trasparenza del metodo, l’etica della responsabilità, e non la viralità del messaggio o la popolarità del relatore. Serve un ecosistema culturale che riconosca il valore della formazione tecnica, della ricerca applicata, dell’esperienza empirica, e che faccia da argine al dilagare di chi colonizza il lessico dell’innovazione per fini di prestigio personale, visibilità politica o rendita comunicativa. Non è solo un auspicio: è una necessità strutturale per la tenuta democratica delle nostre società. Perché parlare del rapporto uomo-macchina non significa giocare a immaginare il futuro in chiave letteraria o spettacolare. Significa decidere oggi che tipo di umanità vogliamo diventare, con quali strumenti, con quale rigore, con quali alleanze tra pensiero, tecnica e valore umano.

Chiunque voglia entrare in questo campo, ben venga. Ma lo faccia con umiltà, con studio, con rispetto per la complessità, e con la consapevolezza che parlare di uomo e macchina non è una performance da palcoscenico, ma una responsabilità etica, scientifica e politica tra le più grandi del nostro tempo. Chi ha dedicato anni a questi temi, chi ha studiato, sperimentato, fallito, misurato, progettato e osservato, non chiede esclusività del discorso, ma chiede che venga rispettata la differenza tra chi sa e chi pretende di sapere. È da questa differenza che nasce la possibilità di un futuro veramente umano.

Un fenomeno ancora più preoccupante all’interno di questo scenario è rappresentato dalla proliferazione dei divulgatori “fai da te”, figure che, nel giro di pochi anni, si sono spostate con sorprendente disinvoltura da un tema all’altro, cavalcando l’onda del momento e adeguando la loro narrazione ai trend più redditizi, non a quelli più rilevanti dal punto di vista scientifico o culturale. Costoro non sono studiosi, non sono ingegneri, non sono etologi digitali, non sono filosofi della tecnica, e talvolta non sono nemmeno buoni giornalisti: sono abili costruttori di narrazioni virali, esperti nell’individuare ciò che “fa presa” nel mercato delle emozioni digitali, e capaci di creare attorno a sé l’illusione di una competenza che nella realtà non esiste.

Nel decennio scorso molti di loro si occupavano di crescita personale, spiritualità applicata, life coaching, psicologia pop o pseudo-filosofie orientali; con l’avvento della pandemia, si sono trasformati in esperti di virologia, salute pubblica, geopolitica sanitaria; poi, all’improvviso, sono diventati specialisti di metaverso, blockchain, cripto-attività. Oggi, con la stessa disinvoltura, parlano di intelligenza artificiale, di rapporto uomo-macchina, di futuri post-umani e robotizzazione della società. Sempre con lo stesso tono assertivo, sempre con l’uso di slogan iperbolici, e soprattutto sempre con la stessa intenzione non dichiarata: monetizzare l’attenzione, non trasmettere conoscenza.

Non si tratta di divulgazione scientifica: si tratta di iper-divulgazione emozionale costruita per generare traffico, like, iscrizioni a corsi, vendite di libri, accessi a piattaforme, o posizionamenti personali come “visionari” o “profeti del nuovo mondo”. L’obiettivo non è mai chiarire, approfondire, distinguere, ma impressionare, semplificare, conquistare. In molti casi, la macchina è trattata come un oggetto mitologico, il futuro come una religione, e l’utente come un fedele da convertire, non come un cittadino da educare.

Questo uso distorto del tema uomo-macchina come leva di marketing personale o aziendale è profondamente nocivo. Perché disorienta il pubblico, tradisce le promesse dell’educazione scientifica, e produce un cortocircuito tra comunicazione e verità. La voce di chi ha passato anni nei laboratori, nei centri di ricerca, nei reparti clinici, nelle aule universitarie o nei team multidisciplinari spesso viene oscurata dalla narrazione ben confezionata di chi ha imparato solo a costruire storytelling ad alta emotività.

E così, nel dibattito pubblico, si finisce per confondere chi ha visibilità con chi ha autorevolezza, chi ha seguito con chi ha metodo, chi ha una bella narrazione con chi ha contenuti validi. L’intelligenza artificiale, la robotica, la neuroingegneria e le tecnologie immersive sono tra i campi più delicati e trasformativi del nostro tempo, e meritano un’analisi profonda, seria, documentata, non una sequela di clip, TEDx e frasi a effetto pensate per stupire il pubblico generalista e consolidare una posizione di potere comunicativo.

Serve urgentemente una presa di coscienza collettiva: non tutto ciò che è virale è vero, non tutto ciò che è condiviso è competente, non tutto ciò che è emozionante è utile. Il rapporto uomo-macchina non è una moda, è una sfida epocale. E come tutte le sfide epocali, va affrontata con serietà, studio e spirito critico. Solo così potremo costruire una cittadinanza digitale matura, capace di abitare le trasformazioni in atto senza subirle, ma guidandole con intelligenza e umanità.