Benvenuti nel Forum della Fondazione Olitec. Questo spazio è stato creato per promuovere la trasparenza e facilitare la comunicazione tra la Fondazione Olitec e tutti coloro che desiderano entrare a far parte del nostro team, in particolare per il ruolo di Sales. Il nostro forum è uno strumento di dialogo aperto e costruttivo dove i candidati possono porre domande, condividere esperienze e ottenere risposte dirette sui vari aspetti del processo di selezione e sulle opportunità di carriera offerte dalla Fondazione.
All’interno del forum troverete topic dedicati ad argomenti specifici su cui potrete approfondire informazioni relative al ruolo, al processo di selezione e alla cultura aziendale della Fondazione Olitec. Inoltre, avrete la possibilità di caricare le vostre domande e consultare le risposte fornite ad altri quesiti posti dai candidati, creando così una rete di informazioni condivisa e trasparente.
Questo spazio è pensato anche per favorire la condivisione delle esperienze personali: potrete raccontare il vostro percorso e scoprire come altri candidati stanno affrontando questa opportunità. Vi invitiamo a partecipare attivamente, a rispettare gli altri membri della community e a mantenere un tono di dialogo collaborativo e positivo.
Ci troviamo alla soglia di quello che la storia riconoscerà probabilmente come la quinta rivoluzione industriale. Tuttavia, a differenza delle precedenti, questa trasformazione non riguarderà principalmente fabbriche o macchinari, ma penetrerà nel tessuto più intimo dell'esperienza umana: le nostre emozioni, i nostri pensieri, le nostre decisioni quotidiane, la rivoluzione nel cambio delle nostre abitudini, nel concepire il tempo, la velocità, che grazie all’AI ci farà risparmiare tempo.
L'intelligenza artificiale generativa non è semplicemente una nuova tecnologia. È il sistema nervoso della società digitale del futuro. Eppure, mentre scrivo questo articolo, stiamo assistendo a quello che potrebbe essere definito il più grande furto della storia dell'umanità: l'appropriazione sistematica dei nostri dati, della nostra conoscenza collettiva e della nostra privacy cognitiva, dell’inferenza personale.
Per decenni abbiamo navigato nel mondo digitale attraverso la ricerca per parole chiave. Questo paradigma sta rapidamente cedendo il passo all'inferenza AI, dove algoritmi sempre più sofisticati interpretano le nostre intenzioni, predicono i nostri bisogni e plasmano le nostre scelte. Ogni prompt che digitiamo, ogni domanda che poniamo agli assistenti AI, ogni interazione con questi sistemi rappresenta un frammento della nostra identità digitale che viene trasferito, analizzato e monetizzato.
Negli ultimi due anni, 500 milioni di persone hanno inconsapevolmente contribuito all'arricchimento di un pugno di giganti tecnologici attraverso l'uso quotidiano di servizi di inferenza AI. Ogni conversazione con un chatbot, ogni richiesta di generazione di contenuti, ogni query di ricerca avanzata alimenta sistemi che non controlliamo e che non ci appartengono.
Mentre i governi si concentrano giustamente su ponti, strade e reti elettriche, una nuova categoria di infrastrutture critiche sta emergendo silenziosamente: le infrastrutture per l'inferenza AI. Questi sistemi rappresenteranno l'equivalente digitale delle reti energetiche del XX secolo, ma con un impatto potenzialmente molto più profondo sulla sovranità nazionale e sulla libertà individuale.
Attualmente, il mercato dell'inferenza AI è dominato da pochissimi attori globali.
Questa concentrazione presenta rischi sistemici enormi come la Dipendenza strategica: I nostri sistemi educativi, sanitari, economici e di difesa dipenderanno sempre più da capacità di inferenza AI che non controlliamo; Vulnerabilità geopolitica: Un'interruzione dei servizi o politiche discriminatorie da parte di questi provider potrebbero paralizzare intere nazioni; Erosione della privacy: Ogni cittadino che utilizza questi servizi trasferisce informazioni sensibili verso server e giurisdizioni estere; Perdita di sovranità digitale: Le decisioni critiche per i nostri paesi saranno influenzate da algoritmi sviluppati e controllati altrove.
Inferenza Privata
La privacy nell'inferenza AI non è un lusso tecnologico, ma un diritto fondamentale nell'era digitale. Quando un medico consulta un sistema AI per una diagnosi, quando uno studente chiede aiuto per i compiti, quando un cittadino cerca informazioni sensibili, questi dati non dovrebbero mai lasciare confini controllati e sicuri.
L'inferenza privata garantisce che:
I dati personali e sensibili rimangano sotto controllo privato
La conoscenza generata dai cittadini di un paese benefici prima di tutto quel paese
Non si creino dipendenze strategiche da fornitori esteri
Si preservi la diversità culturale e linguistica nell'era dell'AI
Non possiamo permetterci di ripetere gli errori del passato. Così come negli anni 2000 abbiamo permesso che i social media e le piattaforme digitali fossero monopolizzate da pochi attori stranieri, rischiamo ora di cedere il controllo dell'infrastruttura più critica del XXI secolo.
Per questo è necessario intervenire subito su pochi punti ma chiari:
Investire massicciamente nello sviluppo di capacità nazionali di inferenza AI, supportando startup e aziende locali che operano in questo settore critico;
Creare ecosistemi nazionali per l'AI che privilegino fornitori locali per tutti i servizi pubblici e le infrastrutture critiche;
Stabilire standard rigorosi per la privacy nell'inferenza AI, rendendo obbligatoria l'inferenza privata per tutti i dati sensibili dei cittadini; 4. Promuovere la ricerca e sviluppo di tecnologie di inferenza distribuite che possano operare su scala nazionale senza dipendenze estere;
Sensibilizzare i cittadini sui rischi dell'uso inconsapevole di servizi di inferenza AI stranieri;
Creare partnership internazionali tra paesi che condividono valori simili per sviluppare alternative ai monopoli attuali.
Verso un Futuro di Sovranità Digitale
La tecnologia esiste. Le competenze si possono sviluppare. Gli investimenti necessari sono accessibili. Quello che manca è la volontà politica di riconoscere l'urgenza strategica di questo momento storico.
Alcuni di noi, nel nostro piccolo, stanno già lavorando per costruire alternative. Esistono startup che hanno sviluppato motori di inferenza privati, ricercatori che stanno perfezionando algoritmi per l'AI distribuita, imprenditori che stanno creando ecosistemi locali di intelligenza artificiale. Ma questi sforzi individuali non bastano. Serve una strategia nazionale, un impegno governativo, una visione di lungo termine.
Ci troviamo a un bivio storico. Possiamo scegliere di essere protagonisti della rivoluzione dell'AI, costruendo infrastrutture che servano i nostri cittadini e proteggano i nostri valori. Oppure possiamo rimanere spettatori passivi, cedendo progressivamente la nostra sovranità digitale a chi ha avuto la lungimiranza di investire per primo.
La quinta rivoluzione industriale toccherà l'anima stessa dell'esperienza umana. Non possiamo permettere che sia guidata da interessi che non sono i nostri.
Il tempo per l'azione è ora. La posta in gioco è il futuro digitale delle nostre nazioni e la libertà cognitiva dei nostri cittadini.
Di Andrea pili
Ci troviamo alla soglia di quello che la storia riconoscerà probabilmente come la quinta rivoluzione industriale. Tuttavia, a differenza delle precedenti, questa trasformazione non riguarderà principalmente fabbriche o macchinari, ma penetrerà nel tessuto più intimo dell'esperienza umana: le nostre emozioni, i nostri pensieri, le nostre decisioni quotidiane, la rivoluzione nel cambio delle nostre abitudini, nel concepire il tempo, la velocità, che grazie all’AI ci farà risparmiare tempo.
L'intelligenza artificiale generativa non è semplicemente una nuova tecnologia. È il sistema nervoso della società digitale del futuro. Eppure, mentre scrivo questo articolo, stiamo assistendo a quello che potrebbe essere definito il più grande furto della storia dell'umanità: l'appropriazione sistematica dei nostri dati, della nostra conoscenza collettiva e della nostra privacy cognitiva, dell’inferenza personale.
Per decenni abbiamo navigato nel mondo digitale attraverso la ricerca per parole chiave. Questo paradigma sta rapidamente cedendo il passo all'inferenza AI, dove algoritmi sempre più sofisticati interpretano le nostre intenzioni, predicono i nostri bisogni e plasmano le nostre scelte. Ogni prompt che digitiamo, ogni domanda che poniamo agli assistenti AI, ogni interazione con questi sistemi rappresenta un frammento della nostra identità digitale che viene trasferito, analizzato e monetizzato.
Negli ultimi due anni, 500 milioni di persone hanno inconsapevolmente contribuito all'arricchimento di un pugno di giganti tecnologici attraverso l'uso quotidiano di servizi di inferenza AI. Ogni conversazione con un chatbot, ogni richiesta di generazione di contenuti, ogni query di ricerca avanzata alimenta sistemi che non controlliamo e che non ci appartengono.
Mentre i governi si concentrano giustamente su ponti, strade e reti elettriche, una nuova categoria di infrastrutture critiche sta emergendo silenziosamente: le infrastrutture per l'inferenza AI. Questi sistemi rappresenteranno l'equivalente digitale delle reti energetiche del XX secolo, ma con un impatto potenzialmente molto più profondo sulla sovranità nazionale e sulla libertà individuale.
Attualmente, il mercato dell'inferenza AI è dominato da pochissimi attori globali.
Questa concentrazione presenta rischi sistemici enormi come la Dipendenza strategica: I nostri sistemi educativi, sanitari, economici e di difesa dipenderanno sempre più da capacità di inferenza AI che non controlliamo; Vulnerabilità geopolitica: Un'interruzione dei servizi o politiche discriminatorie da parte di questi provider potrebbero paralizzare intere nazioni; Erosione della privacy: Ogni cittadino che utilizza questi servizi trasferisce informazioni sensibili verso server e giurisdizioni estere; Perdita di sovranità digitale: Le decisioni critiche per i nostri paesi saranno influenzate da algoritmi sviluppati e controllati altrove.
Inferenza Privata
La privacy nell'inferenza AI non è un lusso tecnologico, ma un diritto fondamentale nell'era digitale. Quando un medico consulta un sistema AI per una diagnosi, quando uno studente chiede aiuto per i compiti, quando un cittadino cerca informazioni sensibili, questi dati non dovrebbero mai lasciare confini controllati e sicuri.
L'inferenza privata garantisce che:
I dati personali e sensibili rimangano sotto controllo privato
La conoscenza generata dai cittadini di un paese benefici prima di tutto quel paese
Non si creino dipendenze strategiche da fornitori esteri
Si preservi la diversità culturale e linguistica nell'era dell'AI
Non possiamo permetterci di ripetere gli errori del passato. Così come negli anni 2000 abbiamo permesso che i social media e le piattaforme digitali fossero monopolizzate da pochi attori stranieri, rischiamo ora di cedere il controllo dell'infrastruttura più critica del XXI secolo.
Per questo è necessario intervenire subito su pochi punti ma chiari:
Investire massicciamente nello sviluppo di capacità nazionali di inferenza AI, supportando startup e aziende locali che operano in questo settore critico;
Creare ecosistemi nazionali per l'AI che privilegino fornitori locali per tutti i servizi pubblici e le infrastrutture critiche;
Stabilire standard rigorosi per la privacy nell'inferenza AI, rendendo obbligatoria l'inferenza privata per tutti i dati sensibili dei cittadini; 4. Promuovere la ricerca e sviluppo di tecnologie di inferenza distribuite che possano operare su scala nazionale senza dipendenze estere;
Sensibilizzare i cittadini sui rischi dell'uso inconsapevole di servizi di inferenza AI stranieri;
Creare partnership internazionali tra paesi che condividono valori simili per sviluppare alternative ai monopoli attuali.
Verso un Futuro di Sovranità Digitale
La tecnologia esiste. Le competenze si possono sviluppare. Gli investimenti necessari sono accessibili. Quello che manca è la volontà politica di riconoscere l'urgenza strategica di questo momento storico.
Alcuni di noi, nel nostro piccolo, stanno già lavorando per costruire alternative. Esistono startup che hanno sviluppato motori di inferenza privati, ricercatori che stanno perfezionando algoritmi per l'AI distribuita, imprenditori che stanno creando ecosistemi locali di intelligenza artificiale. Ma questi sforzi individuali non bastano. Serve una strategia nazionale, un impegno governativo, una visione di lungo termine.
Ci troviamo a un bivio storico. Possiamo scegliere di essere protagonisti della rivoluzione dell'AI, costruendo infrastrutture che servano i nostri cittadini e proteggano i nostri valori. Oppure possiamo rimanere spettatori passivi, cedendo progressivamente la nostra sovranità digitale a chi ha avuto la lungimiranza di investire per primo.
La quinta rivoluzione industriale toccherà l'anima stessa dell'esperienza umana. Non possiamo permettere che sia guidata da interessi che non sono i nostri.
Il tempo per l'azione è ora. La posta in gioco è il futuro digitale delle nostre nazioni e la libertà cognitiva dei nostri cittadini.
Modello di vita, studio e servizio nella Fondazione
Definizione e visione
La comunità educativa è un ecosistema residenziale e laboratoriale che integra vita, studio e responsabilità. Non è solo un luogo, ma un progetto intenzionale di crescita umana e professionale fondato su fraternità, disciplina morale, rispetto e cooperazione.
FraternitàDisciplinaServizioTecnologie BRIA
Valori e ispirazione
Principi francescani di sobrietà e solidarietà, dignità della persona e diritto allo studio. La tecnologia è umanizzata per formare persone libere, competenti e responsabili.
Umano al centro
Norme di riferimento
Codice Civile (artt. 14–42 c.c.)
Consente alle fondazioni di perseguire scopi educativi e gestire strutture come convitti, campus e studentati in coerenza con lo scopo statutario.
D.Lgs. 117/2017 — Codice del Terzo Settore
Artt. 5–6: attività di interesse generale educative e formative
Comprendono istruzione, formazione professionale e percorsi comunitari di crescita personale, anche in forma residenziale.; art. 55: co-programmazione e co-progettazione con PA.
Legge 328/2000 — Sistema integrato di interventi sociali
Riconosce le comunità educative come strumenti di inclusione e prevenzione della dispersione, nel quadro del principio di sussidiarietà.
D.P.R. 616/1977
Attribuisce alle Regioni competenze su riconoscimento e sostegno a strutture educative private con finalità pubbliche e sociali.
Convenzione ONU Diritti del Fanciullo
Artt. 29 e 31: diritto ad un’educazione che sviluppi pienamente la personalità e i talenti in contesti che promuovano dignità e solidarietà.
Compliance trasversale
GDPR (UE 2016/679) per protezione dati; D.Lgs. 81/2008 per salute e sicurezza degli ambienti comunitari.
Struttura organizzativa
Direttore / Coordinatore Responsabile della disciplina, del regolamento e della gestione quotidiana.
Tutor e Formatori BRIA Guidano l’apprendimento tecnico e comportamentale; monitoraggio del percorso.
Educatori civici Custodi di fraternità, rispetto, inclusione, legalità e servizio alla comunità.
Cadetti Residenti o non residenti, selezionati e vincolati al giuramento e al regolamento interno.
Percorso tipo
Orientamento (3 mesi)
Accoglienza, studio del regolamento, fraternità, alfabetizzazione BRIA, sicurezza e privacy.
Addestramento (15 mesi)
Laboratori BRIA, project work, tirocinio interno, vita comunitaria assistita.
Studio accademico (fino a 36 mesi)
Laurea triennale in sincronia con l’addestramento: cybersecurity, informatica, IA.
Regolamento e responsabilità
Diritti e doveri, criteri di ammissione e permanenza.
Convivenza, turnazioni di servizio, decoro degli spazi comuni.
Salute, sicurezza (D.Lgs. 81/2008) e protezione dati (GDPR).
Finalità
Personale e civica: responsabilità, appartenenza, autonomia e spirito critico.
Inclusione e dignità: vitto/alloggio solidale, supporto psicopedagogico, accesso equo.
Riconoscimento e vigilanza
Comunicazione ad autorità competenti (Regione, Comune, Prefettura) con regolamento, piano educativo e organigramma. Possibile riconoscimento come struttura educativa o ente di formazione accreditato, con co-finanziamento pubblico. Vigilanza su sicurezza, igiene e qualità formativa affidata a organi territoriali e al Consiglio della Fondazione.
Lavoro Integrativo art. 16.2.1 Titolo VII
Nel caso in cui un allievo, cadetto o discente iscritto alla Fondazione Olivetti Tecnologia e Ricerca si trovi in comprovata condizione di difficoltà economica, tale da non poter sostenere in autonomia le spese di partecipazione al percorso formativo, e tale condizione sia dimostrata ogni oltre ragionevole dubbio, la Fondazione si impegna, compatibilmente con le risorse e le disponibilità locali, ad attivare una procedura di supporto attraverso l’inserimento lavorativo temporaneo.
A tal fine, l’interessato dovrà produrre una lettera formale di richiesta, corredata da una relazione dettagliata, contenente ogni elemento utile alla piena comprensione del contesto economico, sociale e familiare, e ogni documento ritenuto idoneo a comprovare la condizione dichiarata.
Qualora la richiesta venga accolta, la Fondazione potrà stipulare convenzioni operative con attività economiche del territorio circostante alla sede presso cui l’allievo risiede o è in formazione, privilegiando soggetti già aderenti alla rete associativa della Fondazione o che ne condividano valori e finalità.
Non è tuttavia garantito che la Fondazione sia in grado di individuare un’attività lavorativa compatibile con il percorso di studio, in quanto tale possibilità dipende dalle caratteristiche del territorio, dalle disponibilità del momento e dall’equilibrio con gli impegni formativi. L’attività lavorativa dovrà essere svolta esclusivamente al di fuori degli orari programmati di studio.
Le condizioni di lavoro saranno definite in modo trasparente e condiviso tra il cadetto, l’attività convenzionata e un delegato incaricato dalla Fondazione, che avrà il compito di supervisionare l’accordo e verificarne la regolarità e l’equità. Al socio cadetto sarà comunque richiesta unicamente la quota mensile prevista dal regolamento vigente, che potrà essere oggetto di riduzione o parziale compensazione in base agli accordi.
La Fondazione provvederà a monitorare con continuità l’esperienza lavorativa attivata, verificando l’aderenza ai parametri stabiliti e intervenendo in caso di criticità.
Il rifiuto ingiustificato di due proposte lavorative consecutive compatibili con il percorso formativo sarà motivo valido per l’esclusione dell’allievo dalla Fondazione, fatto salvo il diritto dell’interessato di presentare osservazioni scritte che saranno valutate in via preliminare dal Consiglio di disciplina della Fondazione.
Qualora il socio allievo cadetto decida di interrompere il percorso di studio all’interno della fondazione questo non lo esonera dal pagamento completo della quota qualora mantenga in essere il lavoro procuratogli dalla fondazione, in questo caso l’allievo autorizza sin da ora i datori di lavoro a versare per suo conto sino ad estinzione del debito totale le quote dovute direttamente alla fondazione.
Valori Mantenimento ISEE
La quota di mantenimento è relativa a vitto, alloggio, abbigliamento, attrezzatura di base condivisa, servizi domestici interni, viaggi e trasferte programmate per motivi di studio ed addestramento, partecipazione e fiere e congressi, partecipazione a seminari, materiali didattici, licenze ed accessi ai sistemi informativi e quanto altro descritto nel manuale del percorso.
Se invece vuoi usare la nostra intelligenza artificiale (GPT Olitec) e dialogare con lei puoi cliccare qui Avvia il GPT OLITEC
Arruolati
È il tuo momento. L’Italia ha bisogno di te.
Hai mai pensato di fare qualcosa di grande, che lasci un segno? Di mettere le tue capacità, la tua forza, la tua intelligenza e il tuo coraggio al servizio degli altri?
Arruolati oggi. Unisciti a chi ha scelto di non restare a guardare. Che tu sia uomo o donna, che tu venga da una grande città o da un piccolo paese, c’è un posto per te in una squadra che costruisce il futuro, protegge le vite, difende ciò che conta. Non è solo un lavoro. È una scelta di vita.
È l’inizio di un cammino che ti cambierà per sempre.