Industria 4.0 trick or treat
Cogliere l'opportunità di avere un vantaggio
strategico senza ingegnerizzare lo spreco …
C’è un’immagine che mi attira e che mi fa paura allo stesso tempo. E’ come se un Deux ex machina ci avesse donato una serie di strumenti e conoscenze per farci evolvere nel più breve tempo possibile ad uno stato migliore ma il cammino davanti a noi risultasse nebuloso e con molti pericoli nel cyber spazio. Stoooooop dreaming, piedi per terra e think positive, anzi … lean thinking and be positive.
So cosa fare!
Schiaccio il tasto
rosso!
Un momento , ancora un po’ di thrilling
, c’è mina da disinnescare! Nella descrizione di indus 4.0 si parla di 4° rivoluzione
quindi di un possibile cambio repentino di scenari con conseguenze non prevedibili a priori e
potenzialmente cruento; dove possono
intervenire forze che ricercano il guadagno a scapito del malcapitato imprenditore,
offrendo soluzioni (le loro) le più varie.
Questi “freeware” attirano la nostra
curiosità come una nuova release del sistema operativo del ns smartphone, o
come un’imperdibile app . Ma se abbiamo qualche minuto , ora o giorno per
riflettere facciamolo! Analizziamo
questo nuovo eccitante contratto prima di firmarlo e come un abbonamento a Sky
vediamo quale “pacchetto” ci serve realmente, prima di ritrovarci con un’enorme
infrastruttura hitech che se non
condivisa e compresa potrebbe snaturare,
appesantire il lavoro dei ns
collaboratori .
Vediamo, capiamo,
condividiamo e potremo quindi utilizzare questo strumento eccezionale in modo proficuo e consapevole. E soprattutto vorrei
parlare di evoluzione e non rivoluzione
per gestire , prevedere le conseguenze e non farsi trascinare.
E siccome informarsi e conoscere è
l’inizio di tutto, partirei da
questo schema comunemente riconosciuto come ventaglio di strumenti ed
applicazioni per migrare su indus 4.0. Citando FCA queste sono propriamente
definite come Tecnologie Abilitanti,
strumenti che rendono possibile nuove attività o
anche le stesse di prima ma meglio organizzate , è proprio nel giusto mix di
queste tecnologie che c’è il “salto” strategico contenuto in Industria 4.0.
Lo schema ci indica una suddivisione in 9 punti dei vari
tools o campi di intervento.
Punto
1. Robot collaborativi.
Rapidamente programmabili e trasportabili
(meno postazioni fisse e protette da barriere ). Tutti i saloni e diversi stand
ci propongono piccoli robot assimilabili al braccio umano che possono eseguire
molto bene operazioni di “prendi orienta e posiziona”. Integrati con sistemi
visivi avanzati possono prendere gli oggetti nelle posizioni più varie (sempre
all’interno di un perimetro).
Possono avvicinarsi ad altri operatori (colleghi
umani) senza urtarli percependo la loro prossimità. E’ indubbio che possono
sostituire l’operatore umano in tutti i compiti molto ripetitivi. Il processo
in cui si impiegano deve essere robusto ed i componenti manipolati privi di
difetti estetici che contemplano un controllo tattile o visivo estetico.
Costo ?
Si parte da 25k€ programmazione ed
adattamento dei tools a parte. Tenendo in conto che un operaio costa 35k€
iniziamo a pensare ! il robot si fa 3 turni + …. Un buon programmatore ne può
gestire diversi.
A questo punto la domanda è solo : quando avremo un processo
stabile ? non certo se conviene sostituire l’operatore. Chi fa lean production
conosce bene i benefici che ha un
operatore umano nel trovare tutti i componenti in golden zone per concentrarsi
solo sull’assemblaggio o sul controllo, selezione .
Key point: processo stabile
e componenti in golden zone e standard box.
Altri esempi di robot sono gli AGV
nelle loro nuove “manifestazioni” Eccone un esempio
Punto
2 stampanti in 3D.
Non descrivo i benefici e le specifiche ma
cerco di descrivere un punto di vista di riduzione sprechi (Muda)
Parto dal peggiore Sovrapproduzione: Qui il lotto minimo è
1 e se non cambia il materiale ogni pezzo può essere differente. Per commesse
piccole con molte variabili o personalizzazioni sarà la soluzione . Se non vi sono lotti non vi è stock inutile (overstock) produciamo sono ciò che
serve o meglio ciò che è già venduto!
Trasporti ridotti al minimo
necessario. Attesa pari a zero o meglio solo il tempo di produzione. Sovra
processo? Zero , tempi set up ridotti, cambi tipo anche (potenzialmente zero
solo il carico del nuovo programma) Non qualità ridotta ai minimi termini in
quando il processo è stabile e la finitura dell’oggetto e semplice.
Sorvoliamo sui vantaggi in termini di tempo e logistica . Quanto costa
un ricambio che viene dalla Germania o dagli USA ? oppure se del 3d ne facciamo un business che costo hanno i
ricambi vs l’originale?
Associazione classica di stampa
additiva 3D è la prototipazione rapida al quali aggiungerei anche la produzione
delle pre-serie per validare le linee o agevolare le eventuali omologazioni.Mi piace immaginare questa tecnologia
con lo stesso spirito innovativo degli anni 80 quando iniziarono a diffondersi
i PC , presto ne avremo una in ogni casa.
Punto
3 Realtà aumentata.
Qui il classico esempio è l’utilizzo di Google glasses o similari che permettono in
un contesto ambientale (tramite programmazione ) di includere oggetti o meglio
tag che mettono in evidenza punti specifici nello spazio.
Il primo esempio che
mi è stato proposto è come ritrovare un collo in un magazzino e l’occhiale ti
aiuta tipo “caccia al tesoro” riducendo
drasticamente i temi sia di seek
(ricerca) che di training del personale.
Impieghi nella manutenzione dei
macchinari dove il tecnico individua il tag
direttamente sull’oggetto da cambiare o su cui fare la manutenzione .
L’operatore che deve eseguire un gran numero di operazioni di assemblaggio può
essere guidato in sequenze complesse riducendo gli errori non solo con occhiali
ma anche con video (monitor).
Di seguito potete vedere 2 esempi (Fare copia ed
incolla sul browser)
Il 4° punto simulazione tra macchine interconnesse
Prevede un livello di modellizzazione dei
processi e una potenza di calcolo che risulta essere vantaggioso dalle medie aziende in su (da verificare).
Anche se
una buona simulazione o anche un semplice DOE (design of experiment – progettazione dell’esperimento
test prova) può essere un buon inizio anche per un’azienda piccola specie per
testare la sensoristica e il flusso di informazioni generato dalla macchina al
fine di migliorare qualità e processo.
Per poter attivare questa tecnologia
occorre studiare e modellizzare il o i processi in modo da costruire un
“gemello” virtuale del processo .
L’utilizzo di questi modelli è necessario quando sarebbe troppo costoso
eseguire dal vivo certe attività. Un gemello virtuale si può resuscitare in
caso di disastro , il processo reale no.
Quanto costa il modello e che
impatto avrebbe la simulazione nel mondo reale. Altra domanda da porsi è quanto
è realistico il modello e come reagisce alle variazioni ed ai comportamenti del mondo circostante (in
questo caso Big Data , modellizzazioni
non lineari e routine di machine
learning implementate su computer a base neuronale sono un connubio
necessario).
Punto chiave : costi benefici, ricordiamo che per chi stampa
plastica e produce stampi un software di simulazione è fondamentale per calcolare riempimenti , ritiri, fattibilità etc. La costruzione in ultima analisi del gemello
cibernetico del ns processo permette di svincolarci dal tempo.
Producendo (in
simulata) invecchiamenti precoci e analizzando i parametri caratteristici (generati virtualmente) possiamo con buona approssimazione prevedere un intervento di manutenzione predittiva e di
durata del componente sottoposto a stress.
Il
punto 5. L’integrazione delle informazioni su tutto il flusso del
valore dl fornitore al consumatore.
Sapere è potere. Avere in tempo reale
informazioni precise ed affidabili è l’inizio per potere mettere sotto
controllo i nostri processi e iniziare a migliorare. Cosa facciamo ?? Iniziamo per gradi :
- definire per macro blocchi tutto lo stabilimento (reparti , isole produttive etc) sino a raggiungere unità che non è economico suddividere ulteriormente è Layout definito e aggiornato.
- ricognizione “Gemba” , in stabilimento seguendo il componente , materia prima sino al mezzo che consegna il prodotto finito imballato. Identifichiamo sul layout ciò che vediamo
- poi, al contrario disegnare uno schema a blocchi del flusso è (FSA flow stream analysis) . Calcoliamo gli spazi (mq) i percorsi (m) , gli stock (quantità e tempo di giacenza), i tempi tecnici sulle postazioni operative (Tempo ciclo , s.) , calcoliamo il tempo di attraversamento interno (Lead time interno in s.- min-.ore)
- infine una mappa del flusso del valore (VSM Value stream mapping ) dove per macro blocchi sono indicati i flussi dei materiali e delle informazioni correlate . Calcoliamo il Lead time completo verso Cliente (da ordine Cliente a consegna sulla linea del Cliente, e lead time completo interno con i flussi componenti. Evidenziamo i colli di bottiglia e le criticità capacitive
- non svenire !
Quindi attenzione !!! Prima di
iniziare ad integrare le informazioni vediamo quanto siamo snelli e fluidi nella
nostra azienda o quanto siamo contorti (spesso) e quanti
giri inutili fa il ns prodotto. Osserviamo come la commessa o piano di
produzione viene trasmesso sulle varie
aree e come vengono “chiamati” i componenti, quanto stock c’è a bordo linea
e quanto tempo impieghiamo a percorrere
tutti questi stream , piccoli ruscelli che portano un po’ di componenti vitali
x il prodotto finale.
Oltre a dotarci di magici gestionali e splendidi pad
per ordinare in real time componenti pensiamo bene e sperimentiamo queste
analisi (FSM e VSM). Una volta
stabilito il flusso ideale con il minimo livello di muda (spreco) e definite le
regole base di gestione, solo allora, l’integrazione delle informazioni con
strumenti pad –wireless- visual aids, andon, etc renderà tutto ciò possibile e
migliore di prima (kaizen).
Riepilogo
del punto: Layout + Flow stream mapping + value stream mapping è a cui seguiranno diversi cantieri di
miglioramento per poi implementare l’integrazione delle informazioni. Per
rendere più immediato e fruibile il sistema possiamo iniziare da un’area
modello e implementare come best practise per possiamo estenderlo su tutti i reparti. Notiamo
inoltre che questa infrastruttura ci permette solo di scambiare in modo
efficace e veloce le informazioni ma non ci dà quelle che sono le regole base con cui chiamare ad esempio i componenti o
programmare le linee.
Base
dati. Occorre inoltre definire e comprendere bene le tipologie di dati
che ci serve condividere su tutto lo stream (filiera fornitore cliente
interno): - dati qualità ( scarti, rework, difettosità, azioni correttive , piani di controllo, istruzioni di lavoro etc),
- dati per produrre (commessa, programma di produzione , codici componenti , distinte basi , transazioni , giacenze, versamenti , etichette etc),
- disponibilità delle attrezzature – macchina (stampi: stato ed ubicazione, situazione macchina: fermi, cambi , guasti, rallentamenti, etc), dati per
- controllare il processo (parametri macchina , grandezze fisiche ed ambientali, routine e programmi).
Questo è un semplice elenco, non esaustivo ma
sufficiente per farsi un’idea e far venire l’appetito. Il flusso è chiaro e
snello con Muri-Mura-Muda (link a blog) ridotti. Tutto chiaro ? Bene, allora ci si può dotare di tecnologie e tools
abilitanti come:
- rete wireless (sicura vedi cyber security),
- pad di comunicazione,
- smart printer,
- andon signals (semafori),
- visual aid (cartelli luci, pannelli dati real time ) .
Punto
6 Industrial internet. Comunicazione bidirezionale tra processi e
prodotti.
Vale innanzi tutto la regola base
espressa nel punto precedente : il mio processo è stabile e snello (privo di
muda) , possiamo avanzare. In caso contrario, creiamo dei cantieri di miglioramento focalizzato.
Per spiegare meglio facciamo un
esempio: dobbiamo produrre un recipiente (serbatoio) a tenuta che integra
diversi componenti utili al controllo del sistema; gli step base sono quindi: produzione di un recipiente mediante
stampaggio con pressa, controllo dimensionale del serbatoio e punti di aggancio,
assemblaggio di componenti, prova di tenuta e imballaggio.
Lo schema 1 è la linea concepita “old stile”:
- · senza garanzie di tracciabilità prodotto,
- · senza dispositivi anti sbaglio,
- · le linee di flusso persone componenti sono evidentemente incrociate,
- · c’è un notevole wip (work in progress) tra le stazioni,
- · il tempo di attraversamento della linea non è certo o costante,
- · possiamo produrre diversi pezzi prima di accorgerci di uno difetto,
- · ci occorrono almeno 2 persone per svolgere il lavoro
- · l’efficienza è bassa.
Lo schema 2 riguarda la linea
concepita “indus 4_0 style” con
garanzie di tracciabilità prodotto e con dispositivi anti sbaglio (poka yoke –
dispositivi anti errore che non fanno passare il pezzo di scarto).
Sono stati
fatti studi di ergonomia e le innovazioni si sono ripagate entro 1 anno inoltre
le postazioni di lavoro dialogano tra loro e sono in grado di generare dati
coerenti con la lavorazione in corso. La creazione di un tag (bar code, QR o
equivalente ) all’inizio del flusso dentro l’isola robotizzata permette di
tracciare in ogni fase il pezzo. L’etichetta finale può includere dati sulla
caratterizzazione del prodotto (parametri o altro) e può includere
l’identificativo dell’operatore.
I dati generati sono disponibili in rete . In
questo esempio si delega alla macchina la parte di collaudo e controllo
lasciando all’operatore i compiti di assemblaggio che, su scala medio piccola,
non è conveniente automatizzare.
Sono stati introdotti accorgimenti relativi al caricamento frontale
dei componenti (riduzione muri – fatica) per un picking in golden zone (presa
dei componenti in zone ergonomiche). La linea è priva di flussi incrociati ed è
stato fatto un saving di superficie del 25%.
Tutto ciò è solo un flash per
aprire gli occhi e comprendere come una linea concepita lean ed automatizzata a
dovere possa offrire in termini di performance un vantaggio enorme rispetto
alla precedente.
7
Cloud

Da Ingegnere Elettronico specializzato
in informatica vi annoierei con discorsi da nerd se andassi nello specifico. Diciamo semplicemente che è un grosso
vantaggio se parte dei dati e la relativa elaborazione non sono residenti nella nostra
azienda ma in rete, internet nel Cloud. Il dato è accessibile sempre, in qualunque luogo (basta una connessione
ed un’autenticazione).
Formalmente
in fabbrica o ufficio possono esserci solo sensori e macchine semplici (IOT –
Internet Of Things) e poi tutti i dati sono “spediti” in rete, elaborati su
piattaforme esterne di cui paghiamo solo
l’elaborazione.
Successivamente i
risultati li possiamo vediamo ovunque : in fabbrica, in ufficio o altrove (si
spera non a casa…) con applicativi web o
con un semplice browser. I dati raccolti, grazie all’applicazione dei 2 punti precedenti
(5 e 6), come un flusso continuo sono (tramite wireless) convogliati dalla rete
interna (intranet) verso l’esterno e memorizzati in file residenti sul Cloud.
Fondamentale in questo caso non solo l’infrastruttura di rete interna
all’azienda-ufficio ma soprattutto un collegamento ad internet molto capace
diversi Mbps sia in Upload che in Download (>10 Mbps) . Un buon salto potrebbe essere avere direttamente la fibra ottica in azienda.
Finiti i problemi base (scambio dati) , inizieremo ad avere voglia di scambiare
immagini e flussi video .
Alcuni esempi:
far vedere al fornitore il nostro magazzino (non solo dati ma anche video con
prodotti webcam), pilotare da remoto
droni che visualizzino zone e inventariare in remoto magazzini lontani.
Se a casa abbiamo una schiera di cam
che ci aiutano nel controllo della casa perché non possiamo pensare ai
controlli dei processi in remoto.
(attenzione alla privacy!! Ho detto controllo dei processi , non siamo al
Grande fratello e non ci chiamiamo Orwell ). Ricordo sino allo sfinimento che
lo scopo non è solo il controllo del
processo ma il suo miglioramento (misurare per migliorare). Ripeto un punto che ritengo importante :
in azienda avremo molti elementi
(processi) che generano flussi continui di dati che andremo a memorizzare e trattare
con big data o analystic tools; infine visualizzeremo sempre in rete il cruscotto
che riterremo più idoneo al nostro controllo:
Pannello
delle macchine attive con codice in produzione,
Pezzi/ora,
efficienza o meglio OEE, etc,
Piano di
produzione del giorno-turno con piano cambi stabilito,
Piano
degli arrivi o delle consegne,
Dashboard
(pannello) di macchina con sensori che individuano eventuali anomalie
(rallentamenti, sforzi fuori target, temperature anomale, etc) per agevolare la
gestione e l’intervento predittivo di manutenzione.
Tutto in tempo reale e fruibile
ovunque

8 cyber security .
Mega capitolo, il più condivisibile da
tutti ma sicuramente il più sottovalutato e purtroppo disatteso.
Basta un antivirus, la password di windows e siamo a posto!
Si, al posto giusto per essere cucinati a
dovere dal più stupido dei ragazzini, dal più ignaro dei dipendenti , dal
dipendente infedele , dalla ditta delle pulizie che fa “raccolta di
informazioni” e via … ore di romanzi e
film.
Scherzi a parte, ci sono molte norme che identificano al
meglio l’argomento ma sono altrettanto sicuro, che non vengano prese con
l’attenzione che meritano, sia per
l’impatto sulle operations sia per ampiezza di coinvolgimenti legali che
comportano. La cybersecurity è un argomento molto molto ampio e ciò si
riscontra anche nella rarefatta informazione data nelle norme iso 27032.
E a
proposito di norme, per parlare di sicurezza dei sistemi, è bene partire dalla iso
27001 e più praticamente dal suo “Annex A”. Ammetto che tutto appare come un
sistema molto ampio, intricato e in pratica difficile da gestire. Ma se ci
soffermiamo sui capitoli vedremo che, almeno i principali, non sono solo
condivisibili ma vitali per ciò che
la sicurezza dei nostri sistemi (informatici) deve produrre: business
continuity e miglioramento.
All’imprenditore interessa che la propria azienda
sia: snella, veloce, sicura ed in sviluppo; riesca quindi a trasmettere ai
propri Clienti tutto ciò non solo a
parole ma con i fatti. 20 e più anni orsono ci affacciavamo alle iso
9000 e si faceva fatica ad implementarle
nelle piccole e medie aziende. Oggi le iso
27000 rappresentano un nuovo traguardo a raggiungere. Riporto per completezza
l’elenco dei punti cardine della norma cercando di far comprendere l’utilità di
almeno un set di questi.
A.5 Information security policies
A.5.1 Management direction for information security
A.6 Organization of information security
A.6.1 Internal organization
A.6.2 Mobile devices and teleworking
A.7 Human resource
security
A.7.1 Prior to employment
A.7.2 During employment
A.7.3 Termination and change of employment
A.8 Asset management
A.8.1 Responsibility for assets
A.8.2 Information classification
A.8.3 Media handling
A.9 Access control
A.9.1 Business requirements of access control
A.9.2 User access management
A.9.3 User responsibilities
A.9.4 System and application access control
A.10 Cryptography
A.10.1 Cryptographic controls
A.11 Physical and environmental security
A.11.1 Secure areas
A.11.2 Equipment
A.12 Operations security
A.12.1 Operational procedures and responsibilities
A.12.2 Protection from malware
A.12.3 Backup
A.12.4 Logging and monitoring
A.12.5 Control of operational software
A.12.6 Technical vulnerability management
A.12.7 Information systems audit considerations
A.13 Communications security
A.13.1 Network security management
A.13.2 Information transfer
A.14 System acquisition, development and maintenance
A.14.1 Security requirements of information systems
A.14.2 Security in development and support processes
A.14.3 Test data
A.15 Supplier relationships
A.15.1 Information security in supplier relationships
A.15.2 Supplier service delivery management
A.16 Information security incident management
A.16.1 Management of information security incidents
and improvements
A.17 Information security aspects of business continuity management
A.17.1 Information security continuity
A.17.2 Redundancies
A.18 Compliance
A.18.1 Compliance with legal and contractual
requirements
A.18.2
Information security reviews
Dalla complessità dell’elenco ci si
convince che non basta un semplice IT in grado di installare qualche PC e
mantenere aggiornati i server dando le
autorizzazioni necessarie ma serve un IT formato, un management formato e una
direzione illuminata che percepisca il reale valore delle informazioni, che costituisce
il know how dell’azienda. Ripetiamo come un mantra che know how ,business continuity , system integration sono i nostri
pilastri base ed agiamo di conseguenza.
Da subito occorre inventario e mappa
degli asset connessi o connettibili, semplificando al massimo, qualunque
computer che stia in ufficio o che piloti una macchina deve essere mappato e fatto un back up gestito da IT ma sotto
responsabilità della produzione.
Training a 360 ° per informare il massimo
numero di persone e poi un set di key people che saranno i responsabili dei
vari PC (assets o insiemi più complessi : reti switch router printer server).
Se la dimensione dell’azienda non lo consente occorre investire tempo e danaro
per una capace consulenza sulla sicurezza informatica che permetta di attivare in tempi ragionevoli un serio
programma di miglioramento.
Formazione tecnica per chi in azienda
progetta le macchine o è incaricato di integrarle (l’industrializzatore) , in
base alla mia esperienza. E’ qui che ho trovato il maggiore gap nella concezione
di macchine da includere nel flusso produttivo. Quando mi lamentavo, prima come
responsabile di produzione e poi come lean manager, che la macchina non rendeva
disponibili i dati base di produzione o nella migliore delle ipotesi li dava ma
occorreva andare a guardare un file in una directory del pc di bordo !! Mi
chiedevo se fossi un marziano.
Purtroppo è ns realtà Italiana, i tecnici e
soprattutto i loro manager vivono ancora ad indus 2.0 avvento della corrente
elettrica. Non valgono nemmeno le scuse di aver concepito la macchina con un
budget ristretto in quanto basta considerare il tempo perso nella collezione
dei dati ad ogni fine turno , l’incertezza degli stessi come valore e come
archiviazione.
Alzi la mano chi non ha mai fatto collezione di file di excel
presi con chiavetta copiandoli dal desktop del capoturno. Eppure con
investimenti oculati e ricuperabili entro 1 anno, nelle più critiche condizioni,
si potrebbe andare verso un ottica 4.0
con passi (piccoli) ma progressivi e
veloci.
Piccole frecciatine agli amici
dell’IT: quanti sgabuzzini utilizziamo per stoccare server router e switch ???
Quanti Switch risiedono in stabilimento in armadi (nella migliore delle ipotesi
chiusi) accessibili. Le reti fisiche
sono ridondanti ? I server sono backappati regolarmente ed hanno sistemi RAID
che permettano la continuità in caso di guasto ? Basta , mi stò ritrasformando
in nerd e mi scappa di chiedere se tutti i firmware sono aggiornati.
Formazione a tappeto del personale almeno per
sapere che alcuni allegati sono potenzialmente pericolosi e che le chiavette
sono un ottimo veicolo per malware (software dannoso – leggi virus).
Come vedete ho solo fatto alcune
battute (black humor) per innescare la
voglia di migliorare i punti che ho
evidenziato. In conclusione la sicurezza a cui unisco la rapida disponibilità
delle informazioni è fondamentale per fa impresa con o senza il tag 4.0. le
macchine esistenti in azienda da retrofittare
e le nuove macchine da acquistare o progettare devono essere riviste e
qualificate alla luce di queste
specifiche, se all’interno non vi
è know how sull’argomento è noleggio
rapido di consulenza esterna che sia anche formativa per il personale del plant
.
Ultima riflessione sul punto e mi
scuserete se non ricordo la fonte di
questa battuta:
“Se la tua azienda non ha mai subito attacchi è perché non interessi (out of business – fuori dai giochi) o non te ne sei mai accorto”
9
Big data and analytics
Non ho le competenze per
descrivere nei dettagli i “Big
data” rimando il buon libro che ho recentemente letto che sia più
esaustivo ed interessante. (Big data @l Lavoro di Thomas Davenport) da cui ho estratto questa tabella
Iniziamo a non confondere le 2 cose e
a porci la domanda che cosa ci aspettiamo dall’analisi su questa mole di dati
enorme. Quale analisi vogliamo per i nostri processi produttivi o di marketing.
Gli scenari sono molto diversi e ogn’uno con le sue specifiche metodologie ed
analisi.
Ripeto che essendo il panorama dei Big
data molto complesso e spesso “fumoso” lo rimando a maggiore mia formazione o
interesse futuro. Non mi smarco invece su un semplice esercizio di Analytics che mi è
capitato di sviluppare in una azienda che seguivo come lean manager.
Con un
semplice foglio di excel e tanto tempi per provare query e
aggregazioni volevo aver ragione di una mole di dati grossa (minuscola
se paragonata alla memoria del mio attuale smartphone).
Problema: capire cosa
succede in stabilimento,
- · dichiarazione di produzione x codice (prodotti x pezzi del codice y dalle 6:00 alle 10:00)
- · flusso dei cartellini di versamento pezzi (k pezzi versati del codice y - orario del versamento)
- · distinta base che per me voleva solo dire Codice y = Tempo ciclo,
- · abbinamento codice y con macchina M ( non preciso e non aggiornato)
- · causali di perdita per mancata produzione ( le causali con cui ci si giustifica se non riusciamo a produrre in teoria ad efficienza 100 , in realtà prima della mia analisi numeri molto discutibili e sicuramente non analizzati da tempo)
- · abbiamo scoperto che si iniziava a produrre dai 10 ai 15 mi dopo l’inizio del turno e si finiva almeno 15 minuti prima è d’accordo con la direzione si è impostato il passaggio di consegne ad inizio turno e i 10 minuti di 5 S alla fine è efficienza incrementa da 3 a 5 punti e linee pulite
- · le causali erano usate stile bingo e quindi inutili , attribuite correttamente ci hanno indirizzato sia verso le attrezzature- macchine problematiche e verso gli operatori “meno motivati” è guadagno da 2 a 3 punti di efficienza solo perché la crisi del 2008 e seguenti (purtroppo) ci consentiva di avere più macchine a disposizione che persone e quindi se una macchina si guasta puoi lavorare sull’altra e così via , altrimenti il guadagno sarebbe stato più che doppio.
- · Si è rivisto il corretto abbinamento macchina codice scoprendo che su acuni abbinamenti (strano) il Tempo ciclo cambiava
- · Si sono rivisti i tempi ciclo
- · Sono stati aperti diversi cantieri di miglioramento
- · Il middle management e anche il top si è convinto che un buon strumento analitico è vitale per la conduzione aziendale
Concludo il mio pensiero minimal:
- · informarsi da chi ne sa !! (vedi libro) e interpellare consulenti non interessati a vendervi il loro pacchetto !
- · domandarsi “ma a me e alla mia azienda di 400 anime che mi serve il Big data ??”, Wikipedia riporta diversi esempi di applicazioni dei Big data e da questi la PMI italiana è distante (purtroppo) anni luce
- · Se il nostro business è a tecnologia molto spinta o innovativa chiedere aiuto sia di cervello umano che di cervello elettronico alle università
- · analytics evoluti real time ed integrati a “manetta” come direbbe mia figlia specie per le PMI che gestiscono produzione qualità e logistica ancora anni 70 style
Conclusione
Industria 4.0 deve essere:
- · un evoluzione fatta a step possibilmente in temi rapidi o meglio ragionevoli in relazione al mercato ( non ci facciamo sorpassare)
- · non una rivoluzione in cui essere trascinati e guidati da altri, valutiamo le scelte con consulenti di 3 parte che non debbano “vendere” un prodotto, facendo un adeguato prestudio dei processi e di cosa vogliamo da questi in termini di vantaggi operativi e strategici.
- · a misura della vostra azienda, scegliendo gli strumenti che abbiamo visto con ragionamento e vantaggio, un abito su misura e non “1 fit all”,
- · si a soluzioni standard scalabili possibilmente open source per non rischiare dipendenza e sfruttare al massimo le possibilità di integrazione
- · fatta in un ambiente lean e stabilizzato , non ingegnerizzare il muda!
- · Creare model area per poi estendere (WCM stile !)
- · fatta senza sottovalutare i problemi correlati al trattamento digitale delle informazioni, trasporto ed archiviazione , sicurezza prima di tutto e robustezza delle soluzioni, (consulenza avvocato)
- · Percepita realmente come balzo culturale e strategico e come tale voluta e gestita in modo adeguato, non basta un giovane di buone speranze o un geek dell’IT (esperto informatico) è management committment elevato al quadrato e personale esperto in processi ed integrazione delle nuove tecnologie.Enjoy
Commenti
Posta un commento