 Ok, grazie, ciao a tutti, sono Fiero, il Polo Pazzarico, ma lui è famosa lì all'internazionale quindi mi presento, io sono il suo assistente, parlo in italiano e sono qui per raccontarmi di le sue imprese. L'ultima che abbiamo raggiunto è quella di automatizzare la risposta a quello che c'affrige un po' a tutti, che per la maggior parte siamo uomini, e vi sarà capito così che la vostra ragazza, moglie, con sorte, o amica, ma che ovviamente lo cuace, vi racconta delle vostre, delle sue esperienze con mestini, di scarpi e cose varie, e poi nel fatto è poi vi addormentate, giusto? Vale anche all'opposo il senso che io ho tradotto dei dati che riguardano le recensioni femminili, ma si può fare anche al contrario con lo spiego, ne maschile, quindi va bene per tutti, ok? Il problema che quindi andiamo a risolvere è quello di automatizzare la vostra attenzione, di modo che non dovete più ascoltare, alla fine della ghiacchiera voi fate partire il modellino e lui rispondessi ai ragioni, non ti è piaciuto oppure infatti non piace neanche a me il vestito, quindi andiamo a risolvere un problema di rilevanza sociale. Poi per puro caso questa cosa la potete applicare all'analisi dei commenti su blog o delle recensioni nei prodotti, ma questo è solo un caso. Sei rotto al computer? Ok allora se uno volesse insomma risolvere questa cosa con i codici, come farebbe programmazione specifica, si mette lì, prende il testo della ghiacchiera, lo divide in parole, dice ok se c'è brutto magari non gli ha piaciuto, se c'è grassa magari non gli ha piaciuto, se c'è costa troppo non gli ha piaciuto, se mi c'è bello, se c'è entusiasta, se c'è viva gli ha piaciuto, e dovrei compilare un vizionario di ogni parola se è positivo o negativo e poi fare un qualche tipo di somma, però è poco praticabile da punto di vista della scrittura a mano. Per qui servirè un modo di automatizzare questo processo e fare un modo è che la macchina prenda per esempio, cioè potrei compilare un dato se è proprio che ci sono tutte le recensioni, se è una recensione positiva o negativa e poi trovare un sistema per cui la macchina è imparata sola a distinguere tra le due recensioni, senza che io devo scrivere a mano tutti i criteli. E questo è lo scopo e la ragione di essere del machine learning, imparare dagli esempi. Questa è l'unica formula che vediamo. La differenza tra programmazione esplicita e machine learning è che nella programmazione esplicita, immaginate la x all'input della recensione, f è il programma che analizza la recensione e y è la recensione positiva e recensione negativa. Allora nella programmazione esplicita l'input ce l'abbiamo, noi scriviamo f e il programma di la fuori y, l'output, nel machine learning invece succede che abbiamo sia l'entrada che l'uscita e la macchina di la fuori f, generalmente, nella forma più semplice. Quindi quella è il nostro dataset, qui il pollo d'azzlarica abbiamo nascosto un microfono mentre le numerose donne del pollo gli parlavano di vestiti, io sono uno spiegato non ho potuto farlo ma lui ce ne ha tante e quindi abbiamo segnato poi mi sono messa a mano a taggare ognuna se è una recensione positiva e una recensione negativa. Quindi questo è il dataset di partezza. Abbiamo sia l'input e l'output. Questo tipo di apprendimento si chiama supervisionato perché noi diamo le risposte. Quando non le diamo si chiama non supervisionato ma non ce non è niente. Per avere un'intizione geometrica di quello che c'è dietro ognuno di questi testi la macchina lo vede come un punto in uno spazio geometrico dove ogni dimensione è una parola e quindi vedete immaginare che questa è una review, questa è un'altra, questa è un'altra, questa è un'altra. Il machine learning trova un modello che le separa, modello nel caso più semplice è una retta, taglia le recensioni positive da quelle negative in questo spazio. Poi può essere anche una cosa, una forma un po' più complessa però nel caso più semplice è una retta. Quella retta si chiama modello. Quindi facciamo questa cosa qua. Qui ero troppo pigro per fare la slide apposta per questo caso, avevamo parlato di Atleti con la stessa identica cosa e per loro l'ho messo lì perché tanto per bellezza. Il procedimento in generale è che partiamo dai dati, quindi una fotografia del mondo, il più accurata possibile. Non a caso queste tecniche derivano in grande parte dai dati e per lo più da quello vincisi ai dati. I algoritmi sono assolutamente secondari. Quindi i dati c'è un algoritmo di addestramento che è un programma che immagina questi dati e produce il modello che è la famosa retta. Quindi immaginate la retta all'inizio che è stata tutta storta. L'algoritmo di addestramento l'ha giusta di modo che separa i punti positivi da quelle negative, le recensioni positive da quelle negative. Questo qui è il processo d'apprendimento. C'è qualcuno che chiederà al modello che ti dò questa recensione e dimmi se è positiva o negativa. Nel caso nella fatti specie sia di voi che vi siete addormentati, c'è lei che dice che cosa ho appena detto intero che il modellino e tu sai che cosa è successo. Va di modo soprattutto il Python per fare queste cose erre. Python, io uso Python è buono soprattutto per poi portare le cose nel web ed è veloce perché le routine sotto sono in C. Però ultimamente è uscita questa idea che mi sembra carina perché non vuole fare la fatica di cambiare il linguaggio. Può essere un buon strumento di transizione perché ha tutte le classe essenziali per fare pratica, per imparare come si fa. C'è anche un po' di roba sulla preparazione dei dati. Per quanto riguarda il dataset, non è vero che rorma il coltivo le recensioni, l'ho preso da questo sito che si chiama SQL dove fanno competizioni di indigenza artificiale. Potete scaricarlo se volete e il codice che vediamo adesso anche l'ho messo su GitHub, quindi potete smanettare, cambiare, eccetera. Questo è il momento della demo. Non prevediamo esplosioni. Ok, sarà veloce. Qua importiamo un po' di roba. Sto un po' scomodo. Qua importiamo un po' di cose. Si vede in fondo? Importo un po' di cose. Questo qui serve a settare per la ripetibilità degli esperimenti. Significa usare come SID sempre uno. Perché se non, ogni volta lo lanciate, siccome l'inizializzazione del modello è a caso, vi hanno sempre risultati differenti. Che di questa è una di quelle cose che gli scienziati fanno. E la prima riga di ogni codice di certifico è quella. Poi io prendo questo CSP, quello che abbiamo visto prima, che aveva diversi colonne, però hanno interesso in tanto recensione e la colonna dove c'è positivo e negativo. Ci faccio un lavoro sopra che non ci interessalo. Semplicemente di solo quelle due colonne. Ok, qua viene la parte più interessante. Questi oggetti, la libreria li mette già a disposizione in PHP. Wartoken iser vuol dire prendi la frase, spezzettala, togli la punteggiatura. E quindi ogni frase diventa un arre di parole. Token counter to iser vuol dire che, mi sono scoprato di fare la slide, che pente tutte le parole che sono nel nostro corpus di tutte le ascensioni diventa un arre con tutti i zeri. Ci siete? L'intero dizionario di parole è un arre con tutti i zeri. Per ogni testo prendo questo arre con tutti i zeri, lo copio e accendo tutte le posizioni che contengono una parola che sta nella recensione. Per esempio, immaginate tutto il vocabolario pieno di... Ogni parola c'è uno zero, arriva una recensione che è il libro mi è piaciuto. Vado in questo dizionario, accendo il libro mi è piaciuto con degli uno. Quindi ogni testo diventa questo arre pieno di zeri dove c'è solo qualche uno. Questa qui si chiama vetturizzazione ed è un modo di rapprentare un testo in forma geometrica. Quello lì è un vettore, è un punto nello spazio, il punto che abbiamo visto prima. Ah beh, vetturizzazione vuol dire testo diventa punto. E noi dobbiamo lavorare sui punti. E poi costruisco il data, faccio tanto un split che vuol dire questa cosa. Vuol dire che io, qua la slide l'ho preparata. Per essere sicuro che l'apprendimento vada a buon fine, ricordate, noi abbiamo due colon, abbiamo il testo. Queste sono gli esempi, no? Testo, posizioni negativi, testo, posizioni negativi, testo, posizioni negativi. Allora, io questo lo divido in due patti. Una parte la uso per l'addestravento e l'altra per il testo. Vuol dire che il modello, la mia retta, la trovo analizzando questi dati qua di training. E poi però, quando devo verificare che il modello sia effettivamente intelligente, che mi aiuti nella mia vita di coppia, vado a vedere se risponsete bene anche sui dati di test. C'è una parte dei dati al modello che li nascondo per vedere se funziona veramente, perché il rischio è che impara memoria a questi, tipico del machine learning. Quindi una parte dei dati li tengo da parte, così, dopo che il modello ha preso, dopo che ho trovato questa retta che separe punti, prendo un nuovo punto, io dico dove sta, è positivo o negativo, e il modello mi dice negativo, è positivo. Io registro le risposte e le confronto con quelle che so essere risposte vere. Quindi ho una verifica con il doppio seco, insomma. Se è capito, ho parlato arabo, fate più un cenno. Va bene, quindi qua lui fa random split, vuol dire proprio quella cosa là. E voi li potete anche dire la percentuale, che si fa a 70% di usare per l'attestamento, 30% per fare i test. E poi prendete l'input del training, l'output del training, l'input del test e l'output del test. Questa è una scelta della libreria, c'è usato quest'imetro di qua. Però, vi ricordate quei quadratoni, come l'aviamo visto, c'era x train, y train, x test, y test, sono questi. Quindi, x train e x train train sono input e output e l'attestamento. Cosa che può utilizzare per imparare dagli esempi? Invece x test e x test sono input di test e output di test. La macchina, questi qui non li vede. Vele sono queste di risposte, come esempio. Poi noi andiamo a misurare le sue prestazioni passando di gli input che non hanno mai visto. Poi qua, questa qui è un IPI molto simile a tutte le librerie del macchino e ne funzionano tutte così. Costruite un nuovo oggetto. Questo è un classificatore perché deve attribuire all'input una categoria. Positivo negativo, giallo verde, muore non muore, compra non compra, eccetera. E questo è uno dei tanti che ci sono nella libreria, ce ne sono 4-5 almeno. Quindi questo qui è un nuovo modello, immaginare la retta tutta storta. Poi faccio model, train e gli passo i dati di esempio. Sì, agli input che l'output. Qua dentro ci sono i testi e qui si è la recensione positive o negativa. Questi qui, se ricordate, non sono i testi semplici, ma sono i testi vettorizzati. Cioè, sono delle rappresentazioni geometriche dei testi. Comunque, l'input e l'output. Fatto questo, lui qui dentro ha giusto questa retta e la porta in un modo che si separa nulla di punti in due parti, dove da una parte sono le recensioni positive e dall'altra quelle negative. Fatto questo, posso diamare predict e dagli dei dati e misurare la curatezza delle sue predizioni. E questa cosa la faccio sia sui dati di train che sui dati di test. Ho smontato il progettore. Quanto manca per forno? Cioè, ok. Ci interessa soprattutto questo. Questo qua vuol dire prendi dati di test. Questi non sono stati utilizzati nell'addestramento. Sono recensioni che l'algoritmo non ha mai visto. Mi fai le predizioni su queste e le metto dentro questo P test. Poi chiamo questa misura di curatezza e gli do risposte che io so essere vere, ma che il modello non ha mai visto, risposte che è addato. Accuratezza è questa cosa che vuol dire. Cioè, la percentuale delle risposte giuste. E faccio l'estampo. E poi dopo faccio questa cosa ma matrice di confusione che ha un modo grafico di vedere due stanno e gli errori che parecchio utile. Non so se abbiamo tempo. Papparva! Questo lo vediamo dopo. Ok, allora io vado. Eccolo qua. Allora, adesso ho lanciato questo script. La curatezza si date di training e alta. Altissima. Si date di test, guarda caso un po' più bassa. Comunque quasi 80% diciamo su dieci volte che lei ti chiede, ma stavi ascoltando che cosa ti ha appena detto, si va a finire a botte due volte su dieci. Che vuol dire che otto volte è stato tranquilli. E questo è un po' il miglioramento che ci aspettiamo da questo tipo di tecniche. Un miglioramento statistico non è una certezza. Questo è importante da capire. Surtutto dipende di quantità e qualità dei dati che abbiamo a disposizione. Quindi se non volete litigare mai dovete raccogliere decine di migliaia di centinaia di miliardi di recensioni. Questa qua è la matrice di confusione che vuol dire, allora io qui non messo a una rappresentazione grafica. Eccolo qua. Anche qui ero, diciamo, questa qui l'ho presa già fatta, mi dispiace. Con cui vuoi confrontare le risposte vere rispetto a quelle predette. Nel nostro caso sarebbe quando la recensione era positiva. Quante volte il modellino ha detto che era positiva, contate quante volte. Quando la recensione era negativa, quante volte ha detto che era negativa, contate quante volte. Quindi se la dia con una le trovate le risposte giuste. E invece cavi. Quando la recensione era negativa, quante volte ha detto che invece era positiva, questi sono gli errori. Quindi poi da questa risolizzazione, tutto quello che è stato di fuori della diagonale, in questo caso qua era un classificatore sui fiori, qua ci sono 6 errori. Tutto quello che è stato di fuori dalla diagonale è l'errore. E io devo andare per migliorarla, guardare i miei dati e a capire perché l'errore sta proprio qua, analizzare le frasi in cui c'è stato questo errore e migliorare l'elaborazione che faccio dei dati per spostare queste risposte da qua e farle arrivare sulla diagonale. E quindi c'è quella stessa matrice che abbiamo visto però in formato diciamo indati e la libreria la fa c'è proprio una casse che si chiama Confusion Matrix, eccola qua. E niente, qua vuol dire questa qui si legge così. Quando la recensione era negativa questi sono i dati di testa, recensioni che non hanno visto. Quante volte la risposta era negativa, cioè recensione negativa, 106 questi 43 sono 43 errori vuol dire che quando noi sapevamo che la risposta era negativa, in realtà il modello non si è spagliato e ha detto è una buona recensione. Quindi qui rischiate che lei si accorge che state facendo finta di ascoltare. E ho detto sì sì bellissimo mentre lei aveva detto questo stile è una merda. E qui invece c'è nel caso in cui invece la risposta era positiva, la recensione era positiva questi sono gli errori. Il modellino ha detto 22 volte era una recensione negativa e invece ha detto che la recensione è positiva 129 volte. Per cui potete analizzarvi l'errore in base alla risposta desiderata vi è andata a vedere dove stanno gli errori. E tipicamente è un compromesso quando riesce a passare questi si alzano questi qua. Quindi consiglio per chi di voi è una mentalità imprenditoriale ti conviene misurare economicamente quanto ti costa un errore perché tipicamente devi aggiungere un compromesso e minimizzare l'errore che costa di più perché se abbassino tipicamente si alza l'altro. Cioè come la coperta se la divida una parte magari ti copri la testa ma ti scopro nei piedi. Niente poi l'ultima cosa che vi dico è passiamo alle domande lancio di pomodori e quello che volete è che queste PI sono talmente generiche che ecco qua se io invece riesco a usare night base questo algoritmo qua hanno dei nomi orrendi ma da punti questa computazione sono spesso più stupidi di quello che sembrano. Uso un decision tree io qua non devo cambiare niente basta che cambi il nome della classe e questo qui va allo stesso non cambio niente lo rilancio tra l'altro qua ci ho messo pochi dati per fare velocemente però oggi ci sono più di 5.000 recensioni quindi eccolo qua questa è decision tree è arrivato proprio quasi all'80% la matrice di confusione stesso modo, stesso tipo di errore qua sbaglia un po' più sui negativi cioè dice più spesso che una recensione positiva era in realtà una recensione negativa rispetto all'altro tipicamente voi lanciate l'addestramento su più algoritmi e fate dei grafici a barre dove confrontate le prestazioni e poi per finire quindi adesso ho cambiato solo un'aricca e quello andava benissimo tranquillamente molti di voi saranno chiedendo ok però effettivamente quando mia moglie mi parla io come faccio a far partire questo dopo che l'ho addestrato e fate questa cosa qua voi dovete semplicemente questo qui ho messo dei test di prova immaginate che ci ne è uno solo e che è quello che vi hanno appena detto ok, questo è quello che ti ha appena detto tua moglie tu mandi il test alla tua installazione di warpress con la resta di PI carichi il vetterizzatore e il modello perché possono essere salvati su disco dopo l'addestramento carichi il vetterizzatore e gli fai trasformare questo testo in un punto nello spazio geometrico quindi l'ho porti a formato geometria, a rei numerico e poi gli ami il modello e gli dici mi fai la pretenzione di questo testo vi dà una risposta tu per la fare arrivare sul cellulare quello che sia e dici si sono d'accordo con te è veramente un bestito orrendo si sono d'accordo con te e ti sta bene e quindi con questo io ho risolto tutti i vostri problemi e ho fatto un modo che non divorzierete mai ci ho fido grazie un po' presto è ancora un po' di te se vuoi posso pure fare un ciuso la libreria si dimmi dimmi il motore di machine learning ha messo in piacca PI questo quasi questo è tutto piacca PI trovo a vedere le classi che hai drizzato si questa qui la libreria questa qui è PHP ML e eccola qua si si la pretenzia domanda era non è un utility che prende un po' delle potenci credo che questa sia tutta via capinativa però magari a un certo punto la faranno non lo so e vedi c'è è figa perché ha tutto quello che serve per fare vedi questi sono algoritmi per classificare c'è vuol dire dato un input di che categoria fa parte regressione invece vuol dire io ti do l'input dammi un numero in output ad esempio se io volessi misurare il rating nel data set c'erano anche i rating da 0 a 5 di quanto gli è piaciuto il vestito il regressore lo diamo il regressore clustering vuol dire a partire da tutte le recensioni senza le categorie provami i gruppi trovi come si si raggruppano queste recensioni e farne diverse categorie a partire da una non categoria con cui io ad esempio ci sono dei clustering belli su wikipedia dove avete delle mappe fichissime dove avete tutti gli articoli di sport da una parte gli articoli di storici dall'altra gli articoli scientifici dalla trancora medic questi qui sono le misure che utilizzate per misurare quanto gli algoritmi sono andati bene qua c'è anche una rete neurale quindi quando leggete neural network è tipo quasi di learning crossvalidation è per dividere i dati in parti come abbiamo fatto noi prima feature selection che vanno a capire delle varie colonne di input quali interessano, quali no, quali sono più predictive normalizzazione e sostituzione di valori mancanti quindi queste qui sono tutte le cose che puoi andare a fare prima di lanciare l'addestramento è tutto lavoro sui dati il 90% del lavoro è preparazione di dati infatti nel mondo di HP secondo me questo qui è un ottimo passavanti per gli algoritmi ma ci vuole un po' il corrispettivo di pandas del python deve esserci una ripria a breve la esco perché questo qui cioè devi caricare facilmente un csv di avere un algel per quei sposti le colonne, le cancelli, cambi facilmente le cose oppure ne incroci diversi quella parte lì non l'ho ancora trovata e io non sono in grado di scriverla però la parte dove avete caricato i dati e fate gli esperimenti questa qui è molto buona e l'IPI è semplice Python Sankit Learn hanno messo in terzo flow delle cose nuove più di altro livello che lo rendono un po' più umano che erano al via e si chiamava Keras adesso l'avevo inclusa e quella lì è più per l'intensione di neurali facilmente poi l'altra cosa figa di HP ML che avete ditata, siete già dentro per fare gli esperimenti questa qui è il data set i fiori, quello che prima vi ho messo la matrice di confusione queste qui invece sul vino c'è un data set dove ci sono le varie caratteristiche del vino poi potete fare dei clustering potete fare la previsione di una componente chimica, quello che sia Vedrono l'ho ancora visto persistenza invece a quello che vi permette di salvare il modello una volta che le avete addestrato perché è un doffchio processo fate ripartire un cron che ogni notte addestra il modellino quello che è l'addestramento salvate il modello addestrato e quando il modellino deve rispondere ma risponde la resta di PI c'è l'endpoint che ascolta, arriva la domanda caricate il modello già addestrato, il modello fa la previsione la rimandate indietro a client quindi addestramento è un lavoro che si fa in match la previsione è un lavoro che fate live che potete anche mettere dietro un servizio web quindi di avere il micro servizio potete inventarvi delle cose anche senza se non volete fare i casini nell'installazione ssr wallpress fare un micro servizio esterno poi magari a un certo punto lo integrate poi diciamo c'è questa doppia fase poi l'ultimo consiglio poi sto zitto nel rispetto delle leggi è possibile anche se non sapete ancora cosa farci questo è un po' consiglioso perché poi che cosa facci lo scopri ma che dopo due anni, però nel rispetto delle leggi salvate tutto tu hai visto che poi c'è il modello ah sì, per esempio tu fai questo a destri, ti studi l'errore come abbiamo fatto prima capisci l'errore da che cosa deriva ad esempio io quei 6 e quei 41 errori che stavano lì che l'avete diceva sì, una recensione così me li vado a leggere o addirittura a graficare per le parole che ci sono che ci sono più comuni e modifico i dati in modo che quegli aspetti siano più evidenti ad esempio potrei trovare che in risorse sbagliate, sbagliato perché la recensione era so con tante o oppure c'erano le faccine che mi avrebbero aiutato a capire come era la recensione ma io non le ho lette una recensione che ho scritto so cute con tante o e tante faccina se tu usi un dizionario normale o spezzetti quelle parole compagno solo lì dentro e quindi non le impari e invece se tu scrivi delle routine che entrano nel testo reggono la grammatica da un'atteggiatura capiscono le faccine quindi in basaglierno di tu vai a modificare l'analizzo istuale e lo provo un lavoro di fino tant'è però altro insight i miglioramenti sono a un plato se tu investi una settimana e arrivi subito da qualcosa di decente investi un'altra settimana e cresci un po' di più un'altra settimana ha poco poco poco di più un'altra settimana ha poco poco poco poco di più quindi più ci investe e raggiungi in genere su una tasca di genere di spanto, cioè a comitati di liare allora o lo confratti rispetto alla risposta a caso oppure nel caso di business che hai se sai che ma andando risposte a caso con delle piccole uristiche raggiungi una certa prestazione tu misuri quella prestazione fatta con le uristiche costruisci un modello di questo tipo e vedi se supera quello che si riesce da fare con l'intuito se ne vale la pena lo metti in ballo se non no cioè il benchmark sta tutto a te tu puoi vedere quant'è distante da quella riga in modo che sia più avvidabile in come predizione rispetto a quelle che sono più vicine all'indice di separazione c'è un'insidia di confidenza sì c'è la lucelanza, sì sì tipicamente tirano fare un po' delle probabilità quindi soprattutto se tu hai il classificatore dell'esempio che te uno distingue a 3-4 probabilità la risposta non è 0-0-0 di solito è 0.85 0.10-0.5 quindi proprio qua che probabilità il modello assegnata ad ognuna delle categorie quindi infatti quando vedi queste vettizie sul deep learning non so, comunque la telefona è il modello che trova negli oggetti e ci prende con 95% o se per leggere l'articolo è il top 5 95% che è l'algoritmo di da fuori tra 10.000 risposte possibili se guardi la prima volta la prestazione non è 95 ma è 60 65 quindi la misura pure è importantissima diciamo per noi comuni immortali che facciamo queste cose da 70% per non abbiamo risoluzione computazioni enormi è importante avere i dati puliti in quantità rispettare le leggi e poi chiaramente che cosa ci andiamo a fare non so, misurare se ne vale veramente la pena oppure no e questo è il primo lavoro da mettersi se tu di no parlare e cercheri di capire a naso no mi com'è parlato a naso oppure ti rimballo la statistica proprio quei numeri c'è quanto mi costa un errore quanto mi costa una risposta giusta e fa il calcolo appossimato di quanto ci vuoi di quanto ti aiuti insomma è uno strumento in più uno strumento in più da fiancare a quello che c'è la faccianza un po' di dati ma andata a certi affidambili da poter studiare a parte a parte quelli inclusivi che tu c'è la risposta è che quel sito lì è buono perché fanno le gare di uscire un rissoco di quali punti altrimenti ci sono siti che raccolgono dati nata a punto vuoto pur appena di roba alternativa che te da allora c'è umidità un progetto per tradurre in dati con quello che avete dentro Wikipedia immaginate c'è un linguaggio di quelli che mi permette di avere fuori delle tabelle con i dati che ti interessano per esempio ti interessano i monumenti fuori dammi tutti i monumenti che stanno in Europa con l'anno in cui sono stati costruiti lo stile artistico e dove si trova l'intervino di posizione e la foto e magari poi fa la computer vision dove in base alla foto di fuori lo stile c'è veramente ultra creativo magari lì sono ancora tanti sono un po' sporchi però c'è senso per uno creativo come tesi ma visto che diciamo adizionari sono quelli e più o meno le esigenze sono come esistono dei modelli già pronti utilizzabili esistono modelli già destrati che sono quali soprattutto per la computer vision se tu descari che tenso flow c'è quest'alipressia maceras che io andavo dicendo io sono cinque anni di cokeras vado utilizzato invece di tenso flow perché sotto immagina è che ero tipo un frapper di tenso flow mi hanno perculato in ogni conferenza mi racchievo con un'incluso che ero sotto il codice del core e quindi poi adesso dentro tenso flow ti carichi questa alipressia maceras e li trovi in modelli pre-attestrati per la computer vision che ti serve una pente, tu gli dai un'immagine la devi scalare in un certo modo quindi c'è sempre la preparazione dei dati e lui ti trasforma l'immagine in un array che lo abbiamo fatto sul perso e poi tu su quell'arrè ci fai altro machine learning quindi qui è come se ti riduce la dimensione dell'immagine da 50.000 a 1.000 e lavorare sui mille è molto più facile lavorare sui pixel come puoi immaginare perché tanto più esplode la dimensione tanto più servono dati per fare le pate e poi mi vuol dire che ripartire da ricostruire da zero sì, sì, sì questo è già avesso poi c'è uno strumento di Google che si chiama Universal Sentence Encoder che fa la preparazione dei test è gratuito? Sì, sì, è tutto gratuito e questi qui sono utili poi diciamo ancora meglio sicuramente stiamo parlando di WordPress e qui si parla spesso di ideali legati alloven-source alloven-data software libero c'è uno standard che si chiama ON ONX che è uno standard per descrivere modelli per cui se tu attestri un modello con phpml con un'altra libria in qualsiasi linguaggio salti questo modello in una specie di XML e poi questo XML lo puoi ricaricare da qualsiasi altra libria quindi diciamo il futuro migliore che si può vedere è che ci sono dei market per le lezione si scambiano dei modelli, una parte sarà gratuita una parte ha pagamento e ci sono dei formati aperti e quindi non devi pagare a nessuno per usare per cui il modello te lo scambi nel modo più neutro possibile poi ognuno usa le librerie e gli strumenti che vuole quindi questo è un po'