BIO | BOTTAZZINI Paolo

RITRATTO_BOTTAZZINIpaolo

Consulente di mktg digitale e information architecture, fondatore di VentunoLab

Laureato in filosofia all’Università degli Studi di Milano, ha coordinato lo sviluppo di un metodo per l’architettura delle informazioni su media digitali, che è stato collaudato con successo presso grandi clienti istituzionali italiani e stranieri. I risultati di questa prima esperienza sono condensati nel testo Web Usability del 2003. Parallelamente ha svolto attività di docenza in relazione alla comunicazione digitale, per il Politecnico di Milano (facoltà di Design Industriale), e per il Corep, presso il Politecnico di Torino. Per il Dipartimento di Filosofia dell’Università degli Studi di Milano ha presieduto dal 2003 al 2007 il Laboratorio Filosofico/Informatico. Nel 2007 è stato co-fondatore di Pquod; nel 2012 ha cominciato una nuova avventura aprendo SocialGraph. Nella specializzazione in ambio SEO e di social network analysis sono confluite le analisi dei modelli cognitivi e pragmatici emergenti dai nuovi media.


LEZIONE

Gli strumenti per monitorare e interpretare i motori di ricerca e i social media

I motori di ricerca quantificano il valore delle parole che usiamo, quello dell’interesse dei nostri contenuti e quello del nostro credito come autori. I social media misurano la nostra influenza sugli amici e pesano le nostre reti di relazioni. Molti ambiti della vita personale e di quella sociale che fino a qualche anno fa appartenevano ad una dimensione di informalità sono stati annessi alla razionalità dell’economia politica: segmentati in unità discrete, sottoposti a calcolo e a ingegnerizzazione. Nelle due lezioni esamineremo i fondamenti teorici e il funzionamento di base di alcune delle piattaforme che hanno creato la nuova economia sociale e la nuova tecnologia politica.

Motori di ricerca e social media si fondano sulla traduzione della rete digitale dei contenuti, e di quella delle relazioni personali, in un grafo matematico. Esamineremo a livello intuitivo il funzionamento dei principali algoritmi di calcolo, distinguendo le modalità di ricognizione e stoccaggio dei dati da parte dei software di information retrieval e di social networking. Caleremo queste considerazioni teoriche sull’analisi di un magazine online e sulla strategia della campagna elettorale di Donald Trump. Ci soffermeremo in particolare sull’analisi delle principali piattaforme di tracciamento e di rappresentazione dei dati di Google (Tagmanager, Search Console, Trends) e di Facebook (Insight).

Nell’edizione 2019 la sua lezione è stata:
1. Gli strumenti per monitorare e interpretare i social

Social Network Analysis (SNA). Fondamenti teorici. Nozioni di base. Descrizione dei temi principali (densità, coesione, centralità, cluster e lacune strutturali); loro ruolo nei processi di diffusione dei contenuti, monitoraggio del potere di influenza di ogni nodo, strategie di vendita dell’adv da parte dei principali attori digitali (Facebook, Google…). Reti politiche: alcuni esempi italiani e internazionali (Bannon e altri).

Dettaglio
La SNA, social network analysis è una branca della sociologia (più nello specifico della sociometria) che interpreta le comunità come reti, e le analizza con gli strumenti della matematica dei grafi. Come puoi immaginare, gli algoritmi di Facebook (ma anche quelli di Google, perché il diagramma dei link è un grafo nello stesso senso in cui lo è una rete di relazioni umane) si fondano sulle evoluzioni di questa disciplina. Il mio obiettivo sarà quindi:
– descrivere i fondamenti teorici su cui è costruita la disciplina della SNA;
– illustrare le nozioni e il funzionamento dei temi principali della SNA (densità, coesione, centralità, cluster e lacune strutturali);
– esplicitare il modo in cui ciascuno di questi temi interviene sia nei processi di diffusione dei contenuti, sia del monitoraggio del potere di influenza che alcuni nodi esercitano sugli altri, sia infine dei procedimenti attraverso cui queste analisi costituiscono il centro delle strategie di vendita dell’adv da parte di Fb, Google & Co.;
– mostrare almeno un esempio di analisi della rete di un politico italiano, condotta su Twitter;
– illustrare il modo in cui la SNA ha giocato un ruolo centrale nella strategia di Bannon e del comitato elettorale di Trump per la vittoria alle elezioni del 2016.

2. SEO e ottimizzazione dei contenuti per i motori di ricerca
SEO (Search Engine Optimizer), ottimizzazione dei contenuti per i motori di ricerca. Descrizione teorica del funzionamento dei motori di ricerca. Il caso di Google e di A9 (Amazon). Recenti evoluzioni: Echo e Home, IA applicata ai sistemi operativi dei cellulari, mappe, smart home, smart city, ecc.). Analisi SEO onsite (tattiche applicate ad app per web e mobile). Analisi SEO offsite: strategia per operazioni di link building (crescita dell’attrenzione sociale). Descrizione degli strumenti di Analytics, per la gestione razionale della strategia di comunicazione. Focus su aggiornamenti Google (Owl) per distinguere le fake news.

Dettaglio
Questa lezione sarà dedicata al SEO, l’ottimizzazione dei contenuti per i motori di ricerca. Oggi questo termine indica, come da tradizione Google – ma anche Amazon, per tutti coloro che intendono essere rintracciabili nell’ambito della comunicazione di prodotti retail, è di massima rilevanza. L’esposizione del SEO si compone di due parti:

– la prima è di ordine più teorico, e insiste sulla descrizione (di massima) del funzionamento dei motori di ricerca – per passare poi in particolare a Google e ad A9 di Amazon. La ricognizione non si limita al motore di ricerca tradizionale, localizzato nella pagina bianca sul web: oggi Google e Amazon significano anche assistenti vocali (Echo e Home), intelligenza artificiale applicata ai sistemi operativi dei cellulari, mappe, smart home, smart city, ecc.;

– la seconda è operativa, e si articola in tre parti:

  1. esame del SEO onsite, quindi delle tattiche applicate alla struttura interna (tecnologica e di contenuto) di app per web e mobile;
  2. esame del SEO offsite, ovvero della costruzione delle relazioni con l’esterno per le operazioni di link building (trust per i propri contenuti assicurata dall’attenzione sociale, garantita dai link e dalle menzioni);
  3. ricognizione degli strumenti di Analytics, per la gestione razionale della strategia di comunicazione.

Per Google affronteremo inoltre la storia dell’aggiornamento Owl, mai eseguito, ma che governa tutti gli aggiornamenti degli algoritmi di Google degli ultimi due anni, con lo scopo di trovare un algoritmo in grado di distinguere le affermazioni vere da quelle false e abrogare in via definitiva le fake news dalla Rete (di fatto, una riedizione contemporanea del progetto filosofico di Leibniz, da cui si fa partire istituzionalmente ogni storia dell’informatica).