 Allora, sì, scusate intanto il fetido, il gioco di parole, vorrei concentrarmi invece sul sottodito che un pochino già uno spoiler e parliamo quindi di SEO, poi non voglio spolirare lo spoiler, quindi vedremo poi dopo che cosa intendo. Allora, questo è un piccolo esperimento sulla base di qualcosa che mi ha suggerito il mio collega Andrea Fercia che molti conoscono con l'onna della community italiana. Se volete vedere subito, avete bisogno per esempio di una tecnologia assistiva sui vostri telefoni, sui vostri dispositivi, qui trovate il PDF spero accessibile, qui invece trovate le slide di Google Slide, quindi loco.it-vcvrn.pdf oppure loco.it-vcvrn. Vi ringrazio inatticivo se avete feedback in merito, comunque c'è tutto quello che vedete nelle slide successive, però se avete bisogno per esempio di una lettura schedule eccetera, ci proviamo e vediamo un pochino come funziona e se possiamo adottarlo insomma in futuro. Presentazioni, salva a tutti, come diceva Mario, mi chiamo Enrico Vattocchi, lavoro a Yost da tre anni, sono al capo del team di sviluppo plugin e mi occupo insieme a altre persone della pianificazione delle nostre release, mi trovate su wordpress.org come l'opo, il sito è loco.it, da qui poi trovate altri riferimenti se volete restare in contatto. Allora, un anno fa esce fuori chat gpt diciamo accesso libero e scene di drama e tragedia e panico eccetera. Le intelligenze artificiali sono un pericolo, sono qualcosa che rischia di cambiare tutto e di fare anche qualche vittima nel processo, sì, non voglio alimentare il panico, ma secondo me è una considerazione qualche uniera di realismo, vale a dire, pensate, ponetevi per chi c'era, insomma, o per chi era, diciamo, nell'età della ragione, nei cari vecchi anni 00, cioè i anni 2000, prima dei social network. La SEO era decisivamente diversa, non del tutto diversa, qualcosa di masto, molto è cambiato, chi si è saputo adattare al mondo dai tempi del social network ha prosperato, altri invece hanno avuto problemi e magari sono periti diciamo nella strada. Quindi, inutile dire che non sarà, no, resterà tutto uguale eccetera, qualcosa cambierà, non sono qui per fare ovviamente l'indovino, penso che sia una considerazione assolutamente di buon senso. Però c'è un piccolo ma, molto assistivo, quasi leggibile anche su una cosa scusate, ci ripenseremo da questo punto di vista. Analizziamo la situazione da un punto di vista un pochino più, come dire, razionale, insomma, prima di darci al panico cerchiamo un pochino di capire di cosa si parla, ovviamente io parlo di SEO, ovvero avete dei contenuti di volete posizionare e volete capire cosa fare, insomma, in qualche maniera come potrebbe cambiare lo scenario al momento attuale, quanta c'è qua, ne dici anni, chissà, per ottimizzare i vostri contenuti per i motori di ricetta. Allora, prima cosa fondamentale, cerchiamo di capire di che intelligenti artificiali parliamo, perché parliamo dei language model, appunto GPT è quella più famosa, ci sono molte altre, quindi scudiamo per il momento da limi, giorni, belle figurine, etc. funzionano benissimo, ma non ci riguardano almeno in un primo momento e sono sostanzialmente, scusate se magari lo sapete già, insomma in un anno vi siete praticamente, avete studiato e capito molto di più, però cerchiamo di capire quali sono le cose che ci interessano in particolare. Sono i modelli predictivi, vuole dire che cercano di predire, indovinare, inventare, decidere quello che volete, la parola, il sintagma, il paragrafo, il contenuto successivo e in una sequenza diciamo di testo e lo fanno sulla base di un fantasticiardo, come dicevano su Topolino, di testi contenuti eccetera, contenuti anche insomma magari con qualche problema da punto di vista del copyright, inutile di nasconderlo, prodotti passati in input e quindi utilizzati in qualche maniera come modello, sono stati allenati su questi testi e il loro scopo è quello di produrre di nuovi e sono stati programmati insomma in qualche maniera sono stati avvestati per migliorare sempre di più e produrre dei testi che si avvicinano sempre di più a quelli che sono i testi che sono stati ricevuti in input. A me piace dire che quindi producono qualcosa che è vero simile, più che vero, cioè quello che è rilevante in questo caso non è tanto il fatto che il valore di verità diciamo delle cose che vengono fuori da chat gpt, parliamo ovviamente di chat gpt nella modalità quella base, cioè 3.5 scollegata dal resto del mondo, quella che vi diceva, scusate io sono un sottuto fino al 2021 poi dopo non lo so perché non c'era o se c'era dormivo. La cosa rilevante è che produce dei testi che sembrano plausibili, forse avete provato tutti a chiedere una bibliografia su un argomento che conoscete, produciano una bibliografia bellissima con dei titoli fantastici che non esistono, utilizzando dei nomi di esperti effettive del settore, persone riconosciute nel campo, pensate a seo, a cessibilità, provate con quello che vi pare, biologia vi citerà, non lo so, veramente paleontologi, c'è una famosissima, però di descrivere dei titoli che se andate a chiedere in biblioteca vi guarderanno con due occhi pallati così. Solo cosi di talucinazioni e sono una cosa che ovviamente è molto rilevante, diciamo, fin tanto che ci dobbiamo affilare soltanto al quello che viene prodotto dal modello in sé, diciamo, dal livello base, ma ora vedremo poi come questo si integra in un discorso più ampio. Cosa rilevante? Non sappiamo come sono fatti dentro, diciamo, o meglio. Ora, di là del fatto open source, eccetera, non è tanto quello il discorso, è che essendo sono fondamentamente delle reti neurali, non entriamo ora troppo nel dettaglio, ma questo allenamento di cui parlavo, cioè il tentatore d'Asia, scusate, sfruttiamolo, questo allenamento di cui parlavo a questo punto ha prodotto una sorta di processo evolutivo in qualche maniera che ha giustato dei parametri interni, sono miliardi di parametri, eccetera, però noi non sappiamo, non abbiamo codice che possiamo guardare deterministi con qualche maniera che ci dice, ok, da questo input noi riceviamo questo output. Possiamo provare a scoperchiare, ma è soltamente cose, esattamente come da un certo punto di vista, se guardiamo, abbiamo un cervello, scusate l'immagine un po' gore, guardiamo la struttura neutrale, non riusciamo effettivamente a capire come funziona, tanto è vero che, insomma, non è che abbiamo risolto la mente umana a furia di sezioni e tomografie assiale computerizzate. Quindi sono in qualche maniera delle scatole nere, e questa cosa qui un pochino, quando facevamo un po' di ricerca, diciamo, per questo talk, mi ha fatto un pochino apprezzare le antennine, diciamo, mi ha ricordato qualcosa. Che cosa vi mi invento, se parlando di algoritmi, pensate a un algoritmo che ha ricevuto in input un visibilio, come si dice in Maliborno in particolare, di testi e contenuti e, all'interno, non sappiamo bene come si è fatto e possiamo cercare soltanto di fare reverse engineering, a me viene in mente il caro amico Google, però, quindi non me lo sono tirato fuori, insomma, da chi sa dove, è proprio una cosa che viene in mente anche a voi. E ora siamo precisi. Non si tratta, cioè non è una somiglianza costitutiva che ha effetti rilevanti, come dire, non voglio dire, appunto, che siano la stessa cosa, ok, va bene, non abbiamo un metà di nulla, insomma, eccetera. È che ci interessano di più i fatti, gli aspetti in comune, diciamo, per quanto riguarda veramente la SEO, insomma, è chiaro che l'argumento è talmente vasto che la mente poi parte per l'idi insomma inesplorate, eccetera, e vengono in mente delle possibilità varie, però io mi concentro sempre su quell'aspetto lì, mi preme sottolinearlo. Sostanzialmente, quelli sono i limiti che hanno i motori di cerca così come l'intelligenza artificiale generative di cui parliamo, grossi problemi di contesto, diciamo, di riuscire a colmare quei gap, quei vuoti che la mente umana, diciamo, in qualche modo era riempie, possiamo dire anche naturalmente, oppure che ha, diciamo, di base, una sorta di background, di rumore, di fondo in cui gioco forza i concetti, i contenuti, eccetera, si innestano, mentre invece spesso manca appunto un po' questo aspetto, sia per i motori di cerca, sia per le intelligenze artificiali, perché c'è ancora qualche limite, diciamo, da questo punto di vista. Quindi la cosa chiave per noi, quello che deve essere il questo faro, insomma, il nostro intento finale, è sempre quello di fornire i contenuti che spiegano in modo completo alle macchine, che siano motori di cerca, che siano intelligenze artificiali, eccetera, cosa sono, di cosa parlano, in che relazioni si trovano tra di loro, in modo da non giocare tanto sui sottintesi che capisce 데 soltanto l'essere umano, diciamo, ma dando modo a, appunto, tagli agoritmi di vedere meglio, processare meglio, inquadrare meglio, appunto, il nostro contenuto che mettiamo in circolazione. Questo è una cosa molto importante, ovvero Bing è il caso, anche per uscire dal solito Google, che si prende sempre, insomma, la fetta di interesse più maggiore, è il caso, diciamo, al momento, non so se ci avete già giocato, ma direi che è il caso che è più orientato al momento a fornire un'interfaccia alternativa, conversazionale, come si dice, al motore di ricerca, al loro motore di ricerca. Ci sono altri esperimenti, c'ha GPT-4, se riuscite ora a fare perché hanno usato rubinetti e quindi non vi potete scrivere fino all'univo ordine, tra l'altro notizia di poco. Lo fa, cioè Bard, praticamente avete giocato anche con quello, però dovete proprio andarli un po' a cercare, dovete pagare qualcosa, cioè a Bing proprio ve lo fa, anche se si mettete l'app sul telefono. Questo è un grafico che trovate a questo indirizzo proprio del blog delle sviluppatori di Bing, che in qualche maniera riassumono come funziona all'interno, ovvero abbiamo una situazione in cui si prende la user query e conversation context, quindi la ricetta dell'ultante all'interno di un contesto della conversazione, che viene passata quello che loro chiamano il Bing Orchestrator, Bellino, tra l'altro come il nome fantadiloso, che deve produrre una risposta per la chat. Cosa fa il Bing Orchestrator? Gioca, palleggia, se potrebbe dire, con questi due elementi, ovvero da una parte una GPT di nuova generazione, quindi sostanzialmente si appoggiano allo stesso prodotto di OpenAI con cui possiamo giocare anche noi, il quale genera sulla base di quello che arriva, diciamo, dall'ultante delle query interne. Queste query interne vengono passate a chi, sapete quando c'è, tipo, solo Lillo, nient'altro che il nostro indice di Bing col suo ranking ha sulle risposte, eccetera, non è niente di ignoto o di assolutamente, o sennò anche il meme è quello di Scooby-Dooble, ricordate quello che toglie insomma la maschera e si scopre che è lo stesso. Il quale passa i risultati di nuovo, cioè non ce li spara direttamente come una lista di link, ma li passa di nuovo a GPT che fa una selezione e argomenta, insomma, in qualche maniera, ci costruisce qualcosa che serve poi per la risposta in forma di chat. Quindi, alla luce di tutta questa faccenda qui, se vogliamo andare a vedere le buone pratiche che dobbiamo seguire in questo mondo, qui possiamo spoilerare, infine, non è qualcosa che al momento è poi troppo diverso, perché non possiamo utilizzare le intelligenze artificiali di per sé come motore di ricerca. Hanno sempre bisogno di, anche perché c'è anche tutto un discorso ovviamente di tempi, di allenamento, eccetera, mentre invece i motori di ricerca sono progettati per essere aggiornati costantemente e continuamente, quindi in realtà, se andiamo a vedere e facciamo una cabellata molto veloce di queste buone pratiche, metateg, titolo, descrizione, autore, robot, ovviamente poi ci sono altri aspetti, cioè il panonecal di URL prossimo e precedente in una sequenza di contenuti, i tag relativi ai social network. Cosa sono? Sono la carta d'identità, quello che poi alla fine vi hanno utilizzato da Bing, in questo caso, per presentare alla intelligenza artificiale il contenuto. Questo è un piccolo esempio, ma probabilmente lo conoscete, altrimenti non è un corso accelerato in una slide di metateg, ovviamente. È giusto per dire, ok, se non sapete cosa si tratta, è caro vecchio HTML, quindi qualcosa che abbiamo visto negli ultimi 35 anni sostanzialmente, dove abbiamo il titolo, dove abbiamo una descrizione, informazioni sull'autore, questo è un articolo della CNN, delle informazioni sui, da passare i robot su come trattare il nostro contenuto, anche a livello di presentazione, per esempio per le immagini eccetera, qui anche informazioni su quel link canolico, perché possono essereci vari punti di accesso. È la stessa cosa che poi utilizzerà la nostra, la loro, l'intelligenza artificiale di Bing per dire, ok, questo risultato, se la opera stava cercando delle informazioni sui bucchineri a grandissima distanza, con i nuovi telescopi della NASA, questo sarà un risultato probabilmente rilevante, ma lo dovete spiegare voi, perché Bing, il ciato di Bing, non è che avrei accesso a tutti quei risultati. A maggior ragione non avrei accesso a questo risultato, che è il 7 di novembre, e questo vi fa capire anche quanto tardi ho fatto le slide, insomma mi metto un po' il numero, diciamo. Poi, livello pro, come si dice, schema.org, che cos'è, è un modo per annotare ancora di più i vostri contenuti. Vale a dire, andiamo un pochino nell'ambito del semantic web, per chi era una baseboard di qualche tempo fa, ora se ne farla forse un pochino meno, era il prossimo orizzonte, etc. Ora è un po' meno baseboard, ma schema, cioè è fondamentale, è importantissimo. Lo vedete già in azione sempre, anche se non sapete assolutamente di cosa sto parlando. Ora vedremo. Quando, per esempio, ricevete dei, cos'è detto il Rich Deeper or Knowledge Graph di Google, per esempio, cercate una ricetta e vi trovate direttamente la lista degli ingredienti o dei passi. Chiedete che cosa fare, come si fa, un nuovo altigamino e avete già la sequenza. Cercate delle informazioni su un prodotto e vedete già invece le informazioni sul costo e sulla disponibilità. Questa è soltanto una prima, insomma, una prima applicazione che vedete tutti, ma è un campo in enorme espansione. Ve lo faccio vedere malissimo, perfetto. Grande idea. Complimenti al mio messesso di 3 settimane fa. In pratica è del codice, ve lo descrivo io, è del codice JSON, sostanzialmente in cui vengono descritte le entità, si tratta di ontologie, sostanzialmente, le entità all'interno di una pagina, ovvero abbiamo una pagina a cui si possono fare determinate azioni, che fa parte di un sito che è pubblicato da un'organizzazione, eccetera. La cosa rilevante è che poi analizzando tutto questo, ci sono degli strumenti per visualizzarli, e la pagina è qualcosa che, concettualmente, effettivamente, già esiste dalla rete delle relazioni che descrive questo codice. Possiamo avere un grafo di questo tipo che ci fa vedere, questo è un articolo delle techerai, che ci fa vedere che l'articolo sulla seconda stagione, non mi ricordo che cosa, di Spazio 1999 per chi fa. È, fa parte di una pagina che è pubblicata da, che è pubblicato dall'organizzazione delle teche, ci sono delle azioni, ci sono dei riferimenti delle relazioni ad altri articoli tramite i brevcamps, eccetera. Tutto questo aiuta, è disegnata, concettato, perché le macchine possano, le macchine sembrano essere proprio, sì, determinati, eccetera, però, che le macchine possano processarle e utilizzarle per figurarsi meglio qual è la rete di relazione di nollo, ma, beh, si parla di dietè, eccetera, la da, che cos'è la da, e no, bisogna descrivere che cos'è l'organizzazione che ci sta dietro, qual è la relazione con altri contenuti, eccetera. Vi la rimando a un talk che il mio collega Paolo Scava ha fatto l'anno scorso, al World Camp Italia Milano, lo trovate su EuropeTV, schema.org, perché ne parla in maniera più dettagliata. Benissimo, Crawlers. WorldPSV crea una marea di roba, soprattutto i feed, per tutto, commenti, i post, degli archivi, dei autore, delle tassaromie, dati, eccetera, che aumentano la superficie, diciamo, di accesso del vostro sito. E diventa per noi molto più difficile controllare se tutti questi contenuti sono validi. Aumentano anche la quantità di tempo che i bot passano per visitare il vostro sito. Meglio quindi disattivarli, si può fare da WorldPS6.2 tramite dei filtri, ci sono dei pralini, anche che lo fanno, hanno dei toggle, eccetera. Di nuovo, il mio collega Paolo Scava ne ha parlato a Torino, al World Camp Torino, l'anno scorso aprile, e quindi, insomma, vi rimando a quel contenuto per farciare il più dettagliato, insomma, se state poi anche gli archivi, riduscete, insomma, lo spazio, la superficie di attacco, diciamo, in modo da avere solo quello che vi serve, ma ottimizzato nel modo migliore. Contenuto è ovviamente una cosa fondamentale. Ne parliamo molto rapidamente, perché il tempo è quello che è, resta fondamentale la qualità del contenuto. Questo è quello che Google ha ripetere negli ultimi anni di puntare il suo Experience, Expertise, Autoritativeness e Transportness, quindi esperienza, Expertise, aveva una traduzione perfetta, rifacendo da ieri, non mi è più venuto a mette che traduzione, però, se viviamo in mente, competenza, grande margherita. Autorevolezza e affidabilità. Questo è ancora più importante, perché le intelligenze artificiali sono particolarmente utili per capire meglio quello che veramente l'utente voleva cercare, che è una cosa che normalmente si mette lì, cerca qualcosa e magari sbaglia, perché ci mette troppe parole chiave, oppure bisognava allenarsi a essere dei buoni cercatori su Google. Se, invece, posso cercare il linguaggio naturale, può andare meglio, può capire meglio, pensate anche al discorso di come le intelligenze artificiali in qualche maniera assumono delle personas, diciamo, in qualche maniera delle personalità, mettiamo dei ruoli. Quindi, in qualche modo, se noi produciamo dei contenuti che sono dei buoni riferimenti per un certo argomento, riusciremo a convincere le intelligenze artificiali che il nostro contenuto è quello giusto, sostanzialmente, è quello più adeguato, diciamo, a rispondere alla giusta domanda da parte dell'utente. C'è una marea di roba in più, ovvero queste sono le possibili prospettive, potrebbero essere usate per indiridare le le keyword, pensate a interpretare il linguaggio vocale, al momento Alexa, la tua giornata guardavo l'occhi e mi ha messo una sveglia, perché ha capito, non so, ha sentito che vi sbigliavano, etc. E potrà migliorare questo aspetto. Pensate a una profilazione avanzata degli utenti prima di allarmarvi e sentirvi pedinati da, non so, dal 9.000, di riconoscere meglio quali sono certi pattern di ricerca da parte degli utenti, per esempio. Quindi magari persone che cercano con qualche stile, magari fanno avere aspettative delle risposte che sono diverse rispetto a altri stili di ricerca. Questo è un campo interessante. Mi arrivano dei buoni contenuti, io sono solo contento. Anche un'analisi predittiva che sconfina un pochino e ci sono proprio delle potenzialità che sono ancora in espresse e che sono veramente molto interessanti e che vedremo in qualche maniera in futuro. Speriamo. Sicuramente forse anche curiosi di sentirvi parlare forse, non so, delle intelligenze artificiali, magari non proprio me, però dell'argomento, ovvero come utilizzare, a senso, utilizzare le intelligenze artificiali come uno strumento. Dunque, a un momento attuale, soprattutto questo viene fatto per generare le descrizioni per la SEO. Lo fa che il nostro plugin appagamento lo fanno tantissimi altri plugin. È una cosa che diciamo ormai diamo un pochino per assodata. È lo stato dell'arte della... Ovviamente il passo successivo è l'aiuto alla creazione di contenuti, ma proprio per le considerazioni precedenti ora possiamo rispondere alla domanda se è una buona strategia perché ci sono dei bucosissimi problemi di correttezza e di autorevolezza che, insomma, riesce a diventare un cane che si morde la coda, insomma, una ricerca intondo, diciamo, per quello che in realtà le intelligenze artificiali di Assole non possono fornire. Ci sono problemi anche di scarza regionalità. Non è un problema soltanto dell'IA, ovviamente, è una cosa che succede già per le salte content meals, quelli articoli che sono fatti con lo stampino eccetera. Ci sono problemi anche etici. Va detto, va rivadito, insomma, è un territorio, a volte ne abbiamo parlato anche nei work camps, un territorio un pochino inesplurato che potrebbe avere, insomma, repercussioni varie. Cioè, è giusto tenere il conto perché, insomma, il lavoro di... insomma, di creazione in parte di chiunque è sacro e va assolutamente in qualche modo era preservato. In conclusione, quindi sono in tempo, spero, l'intelligenza artificiali aprono ancora delle possibilità che non sappiamo bene fino al fondo dove ci porteranno e che non vuol dire che potranno cambiare proprio tutto che non vuol dire che non cambieranno niente. Secondo me, probabilmente, siamo qui. Noi nel mezzo stiamo aperti interessati a quello che succede. Al momento attuale, che è quello che possiamo dire è che non lo scenario del seo non cambia radicalmente. Continuate a fare quello che si facevate nel modo migliore senza pensare che insomma, non non è più tutto quello che avete imparato va preso e buttato nel cestino. Anzi, diventa una statuale, possiamo dire, che diventa ancora più fondamentale di prima, per certi mezzi. Da punto di vista del rispetto creativo diciamo, possono essere gli strumenti utili assolutamente un buon senso, che è un senso difficile a definire ovviamente ma sono sicuro che una platea che ha una chiara idea di quella che è il giusto approccio con altre tecnologie del genere. Io ho confuso e l'unica cosa sono molto molto contento di essere qui perché qui avevo uno speaker del primo WorldCamp ed è stato questo è la prima volta che torno a parlare dopo tre anni e mezzo a WorldCamp fine, perfetto. Sono ancora in grado di stare nei tempi.