bollino ceralaccato

Matematica, teoria del caos, logica fuzzy e industria:nuove forme di collaborazione e convivenza.

Tra le nuove iniziative proposte nel ricco calendario 2007 da parte dell’AUSED si è svolto il 22 febbraio un workshop dal titolo: la matematica per l’industria. Un incontro che ha riscosso un notevole successo tra i soci presenti che hanno gradito l’iniziativa tesa ad avvicinare il mondo dell’industria con quello della ricerca universitaria. Presenti come relatori numerosi docenti e dottorandi in scienze matematiche e statistiche.

La matematica per l’industria

Dalla teoria della complessità alla logica “fuzzy”

 

ces10 identitaTra le nuove iniziative proposte nel ricco calendario 2007 da parte dell’AUSED si è svolto il 22 febbraio un workshop dal titolo: la matematica per l’industria. Un incontro che ha riscosso un notevole successo tra i soci presenti che hanno gradito l’iniziativa tesa ad avvicinare il mondo dell’industria con quello della ricerca universitaria. Ha aperto i lavori il presidente dell’AUSED Erminio Seveso, sottolineando come le modellizzazioni, i modelli matematici, possano, di fatto supportare il mondo della domanda proveniente anche - e in particolar modo - dai servizi IT. A questo proposito ha introdotto  un gruppo di valenti ricercatori rappresentato da Massimiliano Sala e Giovanni Naldi, operante nel settore dell’Applicazione della Matematica all’Industria e al mondo del Lavoro e dell’Economia, che hanno poi presentato situazioni concrete e case-study ove questi connubi hanno dato esiti meritevoli. Si parla tanto di Sistemi informativi a beneficio del Business, ma forse tutti noi stiamo dimenticando che è proprio dalla Matematica che il Software per il Business può trovare idee e soluzioni impensabili e originali. Un’angolatura nuova e accattivante di valutare l’affascinante mondo della Ricerca Applicata.

 

Dopo questo preambolo la parola è passata a  Massimiliano Sala, dell’ Università di Trento (e Boole Centre for Research in Informatics UCC Cork, Irlanda) che ha introdotto il tema e anticipato i brevi successivi otto interventi. I modelli matematici, ha ricordato Sala, vengono accusati di essere poco pratici, ma i problemi matematici derivano da problemi reali e concreti. I problemi concreti negli anni cambiano (per esempio, pensiamo a come i problemi di logistica si siano resi più complessi nel tempo) e su questa base di partenza la giornata è stata organizzata in modo da presentare otto interventi in cui la matematica è servita per supportare alcune situazioni aziendali importanti come la turnazione del lavoro, la ricerca operativa di ottimizzazione logistica, la trasmissione e conservazione sicura (crittografia), l’integrità delle informazioni trasmesse a distanza, la gestione del caos generato dalla quantità spropositata di informazioni, la modellizzazione in ottica di valutazione finanziaria, il soft-computing per la produzione industriale e, infine, le applicazioni industriali basate sulla statistica matematica. Sala ha osservato che non è possibile recuperare 40 anni in cui matematica e aziende non si parlano, ma questo tentativo di dialogo anche attraverso AUSED può rappresentare un piccolo ma al contempo importante passo.

 

Quel tipo strano del “matematico”

Prima di analizzare questi otto speech la parola è passata a Giovanni Naldi dell’ Università di Milano  che ha voluto fare un’introduzione su come venga vista oggi la figura del “matematico” nella nostra società, accennando agli stereotipi imposti dal mondo mediatico (cinema, serial tv tipo Numb3rs, ecc.). In realtà la  Matematica è una finestra aperta sul mondo e una finestra che permette di capire il mondo stesso. Perché la matematica, con i suo calcoli scientifici e statistici, i suoi algoritmi, modelli e programmi è nel cuore della applicazioni  Scientifico-Tecnologiche. Naldi ha poi accennato ad alcuni percorsi universitari attualmente in essere. Il primo si chiama SAMI (Scuola per le applicazioni della Matematica nell’Industria) iniziata dall’INDAM (Istituto nazionale di Alta Matematica) poi abbiamo il cosiddetto MAMI  (Master in Applicazioni della Matematica nell'Industria) presso l’Università degli studi di Milano-Bicocca, dove si  ottiene il dottorato in Matematica e Statistica per le Scienze Computazionali. Ci sono anche delle iniziative in fase di progetto come il Dottorato di Matematica del Calcolo: Modelli, Strutture, Metodi e Applicazioni, presso l’Università dell’Insubria e un’iniziativa per la Ricerca Operativa, presso Crema.

 

Turnazione del lavoro

Si è così passati alla presentazione dei Case study, partendo da quello esposto da Roberto Cordone dell’Università di Milano-Crema, Dipartimento di Tecnologie dell’Informazione e relativo alla Turnazione del lavoro. La ricerca operativa per l'ottimizzazione logistica, ha esordito il professore, necessita prima la descrizione del modello e poi la sua applicazione.  L’organizzazione della turnazione del lavoro dipendente è un problema decisionale complesso e quello in ambito sanitario presentato per l’occasione è quello più difficile in assoluto da risolvere per via di molte complicazioni. I primi vincoli da tenere presenti sono quelli sanciti dalle leggi nazionali, dai contratti collettivi nazionali di lavoro e dalla società. Si rischia di ricorrere eccessivamente allo straordinario e di violare inconsapevolmente qualche norma. Un sistema di supporto alle decisioni costruisce differenti soluzioni nel rispetto dei vincoli e aiuta ad individuare la soluzione ottimale.

La definizione dei turni del personale ha un notevole impatto sulla qualità e sul costo del lavoro. Come si diceva, nel settore dei servizi tali turni devono osservare regole complesse, di natura e origine disparata come leggi fisiche, legislazione (nazionale, regionale, ecc…), contratti nazionali (CCNL), contrattazione locale, regole di buon senso o legate all’organizzazione del lavoro, usi specifici.

Una buona turnazione si definisce sulla base di criteri complessi, molteplici e conflittuali che sono relativi ai costi (fissi e variabili, ordinari e straordinari), al livello di servizio (qualità e regolarità) e alla soddisfazione del personale. Da qui la necessità di sviluppare un approccio modellistico.  Prima occorre  descrivere il sistema, poi cercare una soluzione. Il caso specifico presentato riguarda una casa di riposo nel bresciano strutturata con 4 reparti, 8 operatori per ogni reparto, turni distribuiti sulle 24 ore e una pianificazione eseguita una volta al mese, con correzioni al sopraggiungere di imprevisti.

Le criticità riguardavano l’uso di personale “jolly”, il ricorso eccessivo agli straordinari, i periodi critici (agosto, Natale, ecc…), il tempo eccessivo per la pianificazione (4 ore + aggiustamenti), le esigenze specifiche e casi particolari e l’iniquità fra i lavoratori. Nel modello matematico occorre assegnare il valore di 1 o 0 a un dato turno, in un dato giorno, in un dato reparto e a un dato lavoratore. I turni ospedalieri riferiscono ai casi più complessi da gestire perchè esistono ben 16 famiglie di vincoli in gioco che qui riportiamo:

1. Numero minimo di lavoratori per ciascun turno

2. Vincoli fra turni diversi (per esempio., non assegnare due turni alla stessa persona nello stesso momento)

3. Vincoli fra turni analoghi

4. Carico di lavoro minimo e massimo per ogni lavoratore

5. Distanza minima fra turni consecutivi

6. Numero massimo di turni consecutivi

7. Numero massimo di turni consecutivi identici

8. Numero di giorni liberi o riposi

9. Ferie, permessi e malattie

10. Gestione dell’weekend (ad es., tutto o niente)

11. Categorie e abilità specifiche dei lavoratori, reparti

12. Preferenze o richieste dei lavoratori

13. Lavoratori che devono o non devono lavorare insieme

14. Vincoli su periodi di tempo più lunghi dell’orizzonte

15. Schemi ciclici di turni

16. Influenza dello storico (turni in giorni precedenti).

Il progetto è iniziato nel marzo 2004 e si è concluso a giugno 2005. Grazie a esso si è consentito di

rispettare le norme di legge e il contratto, ridurre il ricorso agli straordinari, ridurre il disagio degli operatori, ridurre il tempo di pianificazione (da 4 ore a un tempo controllabile a piacere), ripianificare i turni a seguito di imprevisti, valutare i trade-off fra i diversi criteri di valutazione e

pianificare le assunzioni, simulando l’impatto dee periodi critici.

Lo strumento di pianificazione si compone di una base di dati per gestire dati e soluzioni, un DSS per tradurre le preferenze in pesi, un algoritmo di ottimizzazione per pianificare i turni in base a dati e preferenze,  un sistema di reportistica e, infine, un’interfaccia utente.

 

Sulla logistica

L’intervento successivo è stato quello di Giovanni Righini, OptLab, Dipartimento di Tecnologie dell’Informazione (Crema), Università degli Studi di Milano. La ricerca operativa è partita da alcuni assunti di base che si possono così riassumere: i costi logistici incidono notevolmente sul totale dei costi di produzione e sulla distribuzione di beni e servizi. La complessità delle operazioni logistiche è in continua crescita.

La ricerca operativa tenta di risolvere in modo integrato problemi di ottimizzazione complessi sfruttando nel modo migliore le proprietà dei loro modelli matematici e dando garanzie a priori o a posteriori sull’ottimalità o sul grado di approssimazione ottenuto.Va ricordato che i costi logistici incidono per una notevole percentuale sul totale dei costi di produzione e distribuzione di beni e servizi e la complessità delle operazioni logistiche è in continua crescita. Lo spostamento dell’economia dalla produzione verso i servizi richiede l’ottimizzazione dei servizi logistici. Alcuni criteri fondamentali sono: i costi, i tempi, l’affidabilità e il livello di servizio.

I problemi di ottimizzazione logistica si pongono a diversi livelli: strategico (pianificazione di reti logistiche), tattico (ottimizzazione delle scorte, dei piani di trasporto,...) e operativo (ri-ottimizzazione in tempo reale di percorsi, operazioni,...). La presentazione ha riguardato un caso reale relativo allo sviluppo di un prodotto software per la pianificazione ottimale dei viaggi di flotte di veicoli per la distribuzione di merci a livello nazionale.

Lo strumento software di pianificazione, ha detto Righini, è costituito da un algoritmo di ottimizzazione interfacciato con il sistema informativo dell’azienda, con un sistema informativo geografico e un’interfaccia utente. La pianificazione viene eseguita ogni giorno o più volte al giorno su un orizzonte temporale di uno o più giorni. Per realizzare il modello matematico si è dovuto tenere conto delle variabili (quali mezzi usare, da quali depositi caricare la merce, con quali mezzi servire i clienti, in che ordine visitare i clienti, a che ora visitare ogni cliente e le spedizioni a collettame) e ovviamente i vincoli (incompatibilità tra depositi/mezzi/tipologia di merce trasportata/clienti, finestre temporali, capacità multiple - peso, volume, n. pallets... – massima. durata di ogni viaggio, massimo numero di  ore consecutive di viaggio, precedenze tra operazioni di scarico e di carico e divisibilità degli ordini).

L’obiettivo era quello di minimizzare i costi complessivi dati da una funzione di costo che tenesse conto dei seguenti punti: peso trasportato, volume trasportato, numero pallets trasportati, valore merce trasportata, distanza percorsa, costi fissi per ogni tipo di veicolo usato, costi variabili a fasce (economie di scala) e costi del trasporto alternativo a collettame.

Il progetto è iniziato a Gennaio 2006 e si è concluso a Ottobre 2006. Esso ha consentito di risolvere all’ottimo garantito numerosi esempi con diverse decine di mezzi e di clienti dispersi sul territorio nazionale. E’ in corso l’attivazione del nuovo software presso il primo cliente. Sulla base di questo progetto sono stati  ipotizzati degli sviluppi e delle estensioni che potranno andare a toccare i seguenti temi: Split delivery, Ri-ottimizzazione in tempo reale, integrazione con algoritmi per la navigazione guidata, logistica inversa, problemi con vincoli di caricamento e scheduling dei mezzi alle baie di carico.

 

Trasmissione e conservazione sicura

Lo speech successivo è stato a cura della dottoranda Emmanuela Orsini, dell’università di Milano che ha illustrato gli schemi di comunicazione crittografica e i vari livelli di segretezza (per uso ristretto, di massa, a chiave pubblica e privata). Poi il discorso si è spostato sulla firma digitale, La Orsini ha ricordato come l’Identificazione rappresenti la capacita di un sistema di accertare l’ identità di chi richiede di accedere ai suoi servizi, mentre nell’Autenticazione il destinatario di un messaggio  deve essere in grado di accertare l’ identità del mittente e l’integrità del crittogramma ricevuto e, infine, la Firma digitale rappresenta la funzionalità più complessa e deve possedere tre requisiti: il mittente non deve poter negare di aver inviato il messaggio m, il destinatario deve poter accertare l’identità del mittente e l’integrità del crittogramma ricevuto (autenticazione) e il destinatario non deve poter sostenere che un altro messaggio m’ diverso da m è quello inviatogli dal mittente.

L’utilizzo della crittografia è ormai ovunque, basti pensare alle Carte bancomat, alle schede telefoniche (smart card in genere), alla trasmissione protetta sulle reti (e–mail, e–commerce) e alla conservazione sicura di informazioni.

Nel caso di acquisto di beni e servizi attraverso il Web ricorrendo a server sicuri l’HTTPS (https://...) combina l’interazione del protocollo HTTP attraverso un meccanismo di crittografia di tipo Secure Socket Layer (SSL).

Una versione digitale della firma manuale è poi utilissima operando sulle reti dove si scambiano

quotidianamente innumerevoli transazioni. La firma digitale non può essere una semplice digitalizzazione del documento originale firmato manualmente, ma deve avere una forma che dipende dal documento su cui viene apposta. In quest’ottica si parla di Crittografia a chiave pubblica in modalità inversa, dove il mittente usa la chiave privata per criptare il messaggio e il destinatario usa la chiave pubblica per decriptare. Poi si è passato a parlare di salvataggio dati su Hard Disk. Qui la password è la chiave da inserire nella “serratura digitale” di un PC. I file cifrati, così come le password proteggono l’ accesso all’intero sistema, ed è possibile tramite la crittografia proteggere anche a livello più basso i singoli file che contengono informazioni riservate.

Va ricordato che la sicurezza è un processo e che il problema non è quello della sicurezza in senso assoluto, ma di ottenere il livello di sicurezza adeguato per la realtà in cui si opera.

 

Un problema di integrità

Marta Giorgetti, dottoranda presso l’Università di Milano ha poi presentato il tema “Integrità di informazioni trasmesse a distanza”. Il tema è stato affrontando partendo dalla Teoria dei codici.

La teoria dei codici è quel ramo della matematica che studia il processo di ritrovamento dell’errore durante una trasmissione di dati attraverso un canale affetto da rumore, in modo tale che un gran numero di errori possano essere corretti.

Bisogna cercare un trade-off tra efficienza della codifica-decodifica e le prestazioni della decodifica: codici che proteggono molto, possono essere lenti o difficili da implementare; codici che proteggono poco non rallentano la comunicazione e sono facili da implementare.

La Giorgetti ha quindi introdotto il concetto di RAID ovvero un sistema che usa un insieme di dischi rigidi per condividere o replicare informazioni. I suoi benefici rispetto all’uso di un disco singolo sono di aumentare l’integrità dei dati e la tolleranza per i guasti. Il vero guadagno è che combina dischi a basso costo, magari obsoleti, in modo da rendere il sistema nel suo complesso migliore di un disco di ultima generazione per capacità, affidabilità e/o velocità.

Spostandoci verso i CD/DVD va detto che in generale i codici a correzione d’errore permettono di conservare in modo sicuro (protetto da errori) sia la musica sui CD audio, sia dati su CD o DVD, grazie a un processo standard che permette sia la scrittura che la lettura su essi. La musica viene ”campionata” e diventa stringhe da 192 bit; questi 192 bit vengono codificati più volte fino a diventare 588 bit, aggiungendo, per esempio, anche bit necessari per il copyright; i CD usano due terzi del loro spazio per proteggere il rimanente terzo; ogni frame è scritta su CD, con l’aiuto di un raggio laser. Per la decodifica quando si ascolta la musica, il lettore CD legge le stringhe di bit con l’aiuto di un raggio laser, divide i bit di musica ed i bit di dati, decodifica i bit di musica fin tanto che essi ritornano ad essere la musica ”campionata” e, finalmente, si ascolta la musica. Un lettore CD può trovare e correggere fino a 4000 bit mancanti: anche con un graffio su CD della lunghezza di 2.47mm, la musica può essere riprodotta esattamente. Un lettore CD può nascondere una mancanza di 13700 bit: anche con un graffio su CD della lunghezza di 8.5mm, la musica può essere riprodotta così similmente all’originale che l’orecchio umano non percepirà la differenza.

Sempre nel contesto della trasmissione sicura il tema è passato ai treni. I treni, infatti, sono guidati da un computer. Il guidatore ha l’ultima parola, ma, se egli non è in grado di agire, il computer comunica al treno la decisione. Un’importante fonte di informazioni per il treno è quella che viene solitamente chiamata Balise, che è un dispositivo elettronico posto sotto le rotaie. I Balise sono disposti lungo tutto il percorso del treno e comunicano al treno attraverso onde elettromagnetiche. Il Balise codifica l’informazione attraverso un codice binario e la trasmette al treno. Il treno riceve un segnale da cui decodifica una sequenza binaria: l’informazione mandata dal Balise. Da un punto di vista delle limitazioni va tenuto conto che i Balise emettono deboli onde elettromagnetiche quando il treno passa sopra di loro: questa risulta essere una trasmissione di bassa potenza e quindi con un rumore elevato. Si rende perciò necessaria una protezione dei dati. Il Balise può trasmettere solo per un brevissimo intervallo di tempo: questo limita il numero di bit che il Balise può trasmettere al treno. Il treno, tra l’altro, non può rispondere, così non c’è modo per il Balise di sapere se il treno ha ricevuto correttamente il messaggio o, se l’ha ricevuto, se l’ha recepito. Quando il treno inizia ad ”ascoltare”, capisce l’informazione nell’ordine in cui gli arriva, ma non può sapere a che porzione

del messaggio intero essa corrisponda.

L’interesse per la teoria dei codici a correzione d’errore, ha concluso la Giorgetti, è dovuto alla notevole aumento della necessità di comunicare e di conservare le informazioni. Implementare un meccanismo di codifica e decodifica è complesso e richiede l’apporto di più competenze (matematiche, ingegneristiche, informatiche). Particolarmente critica è la valutazione delle soluzioni presenti sul mercato. In questa fase si rende necessario un approccio matematico rigoroso, per trovare la soluzione ottimale.

 

Caos e quantità di informazioni

Dopo il coffee break la giornata è proseguita con lo speech della dottoranda Giulia Menconi dell’Università Pisa sul tema Caos e quantità di informazioni nel contesto della matematica e della medicina. L’intervento è partito dall’importanza dell’analisi dei dati. E la case study ha previsto l’acquisizione di dati clinici da strutture/apparecchiature specializzate per arrivare a una classificazione dello stato di salute dei pazienti, permettendo una diagnosi supplementare che prescindesse dalle conoscenze mediche di chi analizza a priori i dati.

Il progetto si è posto l’obiettivo di  sviluppare un metodo di complessità-entropia per clusterizzare i dati e rispondere a necessità cliniche fondamentali quali la possibilità di individuare effetti di terapie atte alla prevenzione di condizioni drammatiche (morte cardiaca improvvisa), monitoraggio funzionale non-invasivo di pazienti allettati, monitoraggio di pazienti dimessi afferenti a protocolli di tele-assistenza e anche diagnosi precoce di effetti di tossicità delle terapie farmacologiche. Dalla teoria del caos alla pratica il passo è stato il seguente. Si è generata una  serie temporale, cioè una successione di misurazioni ottenute ad intervalli di tempo regolari:78% 85% 67% 88% 90%. A questa sequenza di numeri si sono associate una stringa di simboli (12023).

A questo punto si è analizzata l’evoluzione delle misure nel tempo calcolandone l’entropia e classificando i dati clinici in base a un indice di gravità basato sulla complessità del segnale misurato. Se i dati risultavano di tipo “periodico” significava che il problema era patologico, se i dati erano di tipo “complesso” il gruppo era in salute, mentre con dati di tipo “caotico” il problema era di tipo fisiologico.

Questo metodo è stato applicato a un insieme di dati forniti dal reparto di Neonatologia dell’Ospedale di Siena. Le serie temporali sono state ottenute mediante pulsossimetro in pazienti in terapia intensiva neonatale. Ogni serie temporale era riferita a tre segnali: frequenza cardiaca (pulserate), percentuale di ossigeno nel sangue (SpO2) e indice di per fusione, cioè  di vascolarizzazione locale.

Sono state gestite 23 serie temporali relative a 12 pazienti su cui si è  operato con una classificazione “alla cieca”.

Descrivere dati caotici richiede molta informazione. Attraverso un algoritmo di compressione (CASToRe–UniPI), si definisce l’entropia della sequenza delle misurazioni come il rapporto tra la stringa compressa e la stringa originale e (con un po’ di Matematica…) otteniamo un numero q compreso tra 0 e 1. Si è così calcolato, ha spiegato la Menconi, il valore di q(X) per i 23 pazienti anonimi e per ogni paziente si è  ottenuto q(PR), q(PI) e q(SpO2). L’indice di salute del paziente #n è rappresntato dalla somma: G(n)=q(PR)+q(PI)+q(SpO2).

Dalle tabelle ottenute, sempre con un altro po’ di matematica è possibile quindi guardare le relazioni tra le tre misurazioni.

Per il futuro, sfruttando le potenzialità applicative di un approccio basato sulla compressione del segnale, il progetto mira a sviluppare una sua integrazione sui sistemi di telemedicina. Con più vantaggi che qui riassumiamo: risparmiare sulla trasmissione e la memorizzazione del segnale, avere una tappa analitica precoce già in grado di avere una qualche validità diagnostica, affiancare i tradizionali metodi di refertazione con l’introduzione di una nuova metodologia non invasiva e semi-automatica e, infine, progettare dispositivi portatili che consentano di monitorare il proprio stato di salute dal punto di vista energetico, fisiologico. Questa metodologia può essere applicata a serie di misurazioni provenienti da qualsivoglia contesto sperimentale (clinico, universitario, industriale, finanziario…) come per esempio il controllo di indici e previsione di crolli in Borsa, l’ individuazione di test per la solidità strutturale e/o stabilità in dispositivi meccanici, nel Gene-finding e nello studio di polimorfismi nel DNA.

Rischio finanziario, ma non solo

E intervenuto subito dopo Giacomo Aletti dell’Università di Milano con un intervento sul tema

Valutare e stimare: non solo rischio finanziario. Aletti ha mostrato alcuni esempi in cui dando un set di regole, definite “stopping rules”, nell’ambito di uno schema a cluster, quando una di queste “stopping rules” viene soddisfatta il modello di clusterizzazione permette di definire quali oggetti di un processo si comportano nello stesso modo. Questo permette di lavorare su una teoria della complessità alternativa a quella mostrata in precedenza dalla Menconi, secondo cui il modello rappresenta una descrizione e più la descrizione è completa più complicato è il modello e più facile è raggiungere un risultato per l’eventuale disamina dei risultati. In quest’ottica se l’entropia è bassa il segnale è semplice, ma quando l’entropia è alta il segnale è complesso. Nell’esposizione di Aletti l’obiettivo è invece la ricerca della riduzione delle informazioni,  poiché la riduzione della complessità del network significa poter clusterizzare lo stato del problema. In questo modo il problema è più semplice da modellare e diventa possibile studiare le dinamiche principali del problema stesso. Inoltre la riduzione della complessità – sempre secondo questa Vision – rappresenta una riduzione delle informazioni “non necessarie”. Il punto nodale è quindi capire quale informazione dobbiamo tenere in considerazione: tale set d’interesse una volta identificato viene chiamato “Target”.

Per ogni problema-target esiste la riduzione ottimale delle informazioni ed è possibile  approssimare e controllare il network in termini di funzioni perdute.

 

Soft-Computing

Subito dopo è tornato al tavolo dei relatori Massimiliano Sala che in ottica Produzione Industriale ha esposto il tema sul Soft-Computing. Il caso di studio ha riguardato il lavoro svolto in un anno presso il “Consorzio Pisa Ricerche” da un team di cinque persone: due matematici, una statistica e due ingegneri.

Il suo compito era di gestire il team, sia da un punto di vista scientifico che organizzativo. Il lavoro è stato svolto per conto di un’importante azienda toscana, leader europeo nel proprio settore.

Ma vediamo, innanzitutto, il problema iniziale. L’azienda in questione produce numerosi prodotti finiti: P1, ..,PN. Ogni prodotto è realizzato partendo da componenti acquistate all’esterno, spesso in paesi lontani. Il numero totale di componenti è di qualche centinaio, ma moltissime componenti servono a più di un prodotto. Su questo va ricordato che per l’organizzazione della produzione,

l’Azienda deve ordinare le componenti ai fornitori con circa 6 mesi di anticipo. Sono per altro possibili aggiustamenti su finestre temporali più corte, ma solo di portata limitata. Ovviamente se l’Azienda sapesse con certezza quanti prodotti P1, .., PN venderebbe sei mesi dopo ordinerebbe esattamente il numero di componenti necessario… Ma ciò non è possibile che avvenga. Questa situazione porta a fenomeni indesiderati come la crescita del magazzino, quando ha ordinato troppi componenti, e a un deficit produttivo, se ne ha ordinati troppo pochi. Di conseguenza  è importante ridurre al minimo lo scostamento tra quanto ordinato e i reali bisogni. Le cause dello scostamento possono dipendere da vari fattori quali le errate previsioni di mercato, l’imprevedibilità della filiera produttiva dei fornitori rispetto a ordini significativamente diversi rispetto all’usuale e ritardi logistici dovuti alla lontananza di alcuni fornitori. In base all’esperienza passata, usando programmi ad hoc, l’Ufficio Pianificazione determina gli ordini con orizzonti temporali a 6 mesi, 5 mesi, 4 mesi, 3 mesi, 2 mesi, 1 mese. A posteriori possiamo valutare l’errore di pianificazione su questi mesi. Il più importante è quello a 6 mesi, che chiamiamo E6. Facendo un esempio per un componente, l’Unità Produttiva (UP) ordina 1000 pezzi a 6 mesi. Dopo 6 mesi ne sono serviti solo 600, quindi l’errore è E6 = 400.

Il progetto di Sala ha quindi permesso di realizzare un ”sistema intelligente” che prende in input la previsione dell’UP e restituisce una correzione, confrontato l’output del sistema con le previsioni e

constatata la situazione reale: l’errore medio, in questo nuovo scenario, è stato la metà di E6.

Cuore del sistema intelligente, ha spiegato Sala, è una rete neurale artificiale, che è stata addestrata con la ”storia” degli ultimi anni. La rete non è addestrata per ogni singola componente, ma le

componenti sono state aggregate con metodi di data mining. Le previsioni vengono poi suddivise proporzionalmente per i prodotti. L’output finale è ottenuto incrociando le indicazioni dell’UP con

l’output delle reti, tramite logica fuzzy.

Per aumentare ulteriormente la precisione del sistema intelligente, è stato anche proposto al cliente di addestrare più reti neurali in parallelo e incrociare gli output usando particolari codici chiamati Error Output Correction Codes. Questa strada non è stata però perseguita dall’Azienda, che si è

ritenuta soddisfatta del prodotto consegnato.

 

Statistica matematica

Dopo il brillante caso appena esposto si è parlato di Applicazioni Industriali della Statistica Matematica grazie a  Antonio Pievatolo del Consiglio Nazionale delle Ricerche, Istituto di Matematica Applicata e Tecnologie Informatiche (IMATI) di Milano. Inizialmente ha introdotto il caso del contatore elettronico di energia, laddove il problema risiede nella qualità dei dati trasmessi e ricevuti attraverso la linea elettrica e nella pianificazione della sperimentazione e analisi dei dati. Piegatolo ha sottolineato che la probabilità p di successo dipende da alcuni fattori riconducili in disturbi di rete, distanza tra contatore e cabina MT/BT,  assegnazione di ripetitori in corso e  nel rapporto segnale/rumore. E’ stato svolto un piano di sperimentazione su 695 contatori elettrici con l’obiettivo di minimizzare la durata delle prove e per l’analisi dei dati si è tenuto conto dell’effetto del rapporto segnale/rumore. Un primo risultato è stato il seguente:

Rapporto S/N              6          12        15        18        24       30

% di successi               60        81        96        95        98        99

 

fatt. param.      2,5%    97,5%

D1 -0,83         -1,22   -0,45

D2 -0,7151     -1,269 -0,1756

Rapporto S/N minore o uguale a 12 D3 -0,8068     -1,349 -0,2876

dist -0,4965     -1,23    0,2216

S/N 8,524       5,902  11,98

ass -2,841       -3,706 -2,114

 

Alcune conclusioni sull’esercizio sono le seguenti: le variazioni del rapporto S/N hanno effetto

solo per valori bassi,  mentre i disturbi hanno un effetto molto moderato con S/N basso e nessuno con S/N alto. Inoltre il processo di assegnazione dei ripetitori disturba comunque la trasmissione.

Piegatolo ha poi ricordato altre applicazioni a cura del CNR-IMATI quali la previsione dei consumi elettrici a breve e medio termine, i programmi di manutenzione basati su indici di affidabilità, le prove di affidabilità del software (in vista del rilascio), la gestione di progetti industriali (in presenza di fattori di rischio) e l’andamento della pioggia in zone di dissesto idrogeologico. A questi temi si sommano inoltre il riconoscimento automatico di classi semantiche

(interni/esterni/primi piani) e dell’orientamento di foto digitali e, infine, la leggibilità delle pagine web in funzione delle condizioni di colore. Per chi fosse interessato ad approfondire i temi lo si rimanda al sito www.mi.imati.cnr.it.

Conclusioni

Con l’ultimo intervento di cui sopra si è chiusa la serie di speech previsti. Il presidente AUSED Erminio Seveso ha voluto ringraziare i professori e i dottorandi che si sono prestati all’iniziativa e ha cercato di ipotizzare nuovi percorsi possibili di collaborazione futura. Sala ha illustrato varie metodologie d’approccio alla collaborazione, tra cui quella degli Stage di sei mesi finanziati. Ovviamente laddove i problemi sono più complessi sarebbe opportuno finanziare un dottorato e coinvolgere i centri di ricerca. Il CNR opera invece tramite assegnisti, ovvero ricercatori a tempo determinato finanziati coi fondi della comunità europea.

I commenti del pubblico partecipante hanno riconosciuto come la figura del CIO in azienda sia la corda più sensibile per sottoporre all’azienda  la possibilità di utilizzare la consulenza di matematici e dei loro modelli, proprio perché il CIO riveste un ruolo pregno di Innovation.

Seveso ha dichiarato in tal senso che effettivamente sarebbe opportuno il recupero della modellizzazione di base nelle nostre aziende.

La giornata si è chiusa quindi ribadendo la possibilità di risolvere problemi aziendali di varie dimensioni e scala grazie al supporto della matematica applicata in azienda, attraverso la modellizzazione, gli algoritmi, la clusterizzazione e, in taluni casi, le tecniche di fuzzy logic.

Chi è l’AUSED

 

L’AUSED, è l’Associazione tra Utenti di Sistemi e Tecnologie dell’Informazione, indipendente

e senza scopi di lucro. Nata nel 1976, raccoglie oltre duecento aziende operanti nei settori industriale, manifatturiero, dei servizi, nonché alcuni enti pubblici. Dal 1996 accetta tra i propri associati anche persone fisiche che, per formazione o per esperienza aziendale, siano interessate agli scopi ed alle attività dell’ Associazione e, dal 2000, accetta anche aziende che operano nel settore dell’ICT. L’ attività dell’AUSED si realizza con l’ organizzazione di incontri, seminari, corsi, gruppi di studio, indagini ecc., che sono caratterizzati, oltre che da elevata professionalità, da estrema concretezza in quanto costantemente tesi alla risol


Luigi Pachì

Luigi Pachì

Dello stesso autore
Le mie inchieste su CBR

Quando ci si trova nel mezzo della selva di acronimi prodotti dal mercato ICT è sempre bene cercare di far chiarezza fin dall’inizio. Con questo spirito affrontiamo una chiacchierata di approfon...

Nella teoria dei giochi ci vuole intuito

On-line è possibile vistire i panni di un investigatore strampalato

Teoria dei giochi in aiuto nella ricerca sul cancro

Una teoria matematica formulata da Leibniz ai primi del '700 e descritta nel 1947 dai matematici John von Neumann e Oskar Morgestern, offre un modello di simulazione per combattere la malattia

In libreria la Fantasy made in Italy

Un romanzo nuovo, originale e avvincente, ricco di azione e dallo sviluppo imprevedibile per chi ama leggere fantasy di ampio respiro.

Dalla teoria dei giochi ai giochi sul giallo

Da qualche tempo, in rete, un sito dedicato all'indagine in campo investigativo...

ERP per il futuro dell’impresa

Il software gestionale ERP (Enterprise Resource Planning) rappresenta il cuore e il sistema nervoso dell'impresa proiettata al futuro. In un'azienda che vuol presentarsi dinamica e pronta a rispond...

×