Documentazione tecnica

L'architettura MultiLipi

Un'analisi tecnica approfondita della nostra infrastruttura a doppio livello

Panoramica

I plugin di traduzione tradizionali operano sul "Visual Layer" — scambiando stringhe di testo nel browser. Sebbene questo soddisfi i lettori umani, crea un ambiente caotico per i crawler di ricerca e gli agenti IA.

MultiLipi è la prima piattaforma a progettare una Architettura a doppio livello:

Il livello HTML

Pagine completamente renderizzate e localizzate per umani e Googlebot.

Il Livello Dati

Un'infrastruttura parallela e strutturata (Markdown + JSON-LD) ottimizzata specificamente per Large Language Models (LLM).

Di seguito è riportata la documentazione passo dopo passo di come il nostro Pipeline a 10 fasi trasforma un URL statico in un'entità globale pronta per l'IA.

FASE 1

Configurazione dell'infrastruttura

La Fondazione

Stabiliamo il livello fisico di routing e sicurezza prima di toccare una singola parola di contenuto.

Passaggio 1: Provisioning Intelligente & SSL

Al momento della connessione, il nostro sistema prende le impronte digitali del tuo CMS d'origine (Shopify, Webflow, WordPress o Custom Stack) per determinare il metodo di iniezione ottimale.

  • Azione: Forniamo istantaneamente certificati SSL dedicati per i tuoi endpoint localizzati.
  • Meccanismo: Il Protocollo Secure Handshake (TLS 1.3) garantisce che i dati che passano tra il server di origine e i nostri nodi edge siano criptati, con l'aggiunta di latenza zero al Time to First Byte (TTFB).

Passo 2: Mappatura dell'architettura URL

Supportiamo tre architetture di routing distinte per adattarsi alla tua strategia SEO.

Opzione A: Sottodomini (Distribuzione più veloce)

Struttura: es.example.com, fr.example.com

Meglio per: Grandi siti aziendali che necessitano di separazione delle preoccupazioni.

Opzione B: Sottodirectory (massima autorità SEO)

Struttura: example.com/es/, example.com/fr/

Meccanismo: Forniamo uno script Reverse Proxy leggero (Cloudflare Worker o configurazione Nginx) che instradano /ES/ traffico verso i nostri server edge mantenendo l'autorità del dominio unificata.

Opzione C: ccTLD (Dominanza Locale)

Struttura: example.es, example.fr

Meccanismo: La mappatura avanzata CNAME permette di indirizzare domini di paese personalizzati al nostro motore di localizzazione.

FASE 2

Elaborazione dei contenuti

Lo strato neurale

Separiamo "Contenuto" da "Codice" per garantire una localizzazione perfetta senza interrompere la funzionalità dell'interfaccia utente.

Passo 3: Ingestione profonda e localizzazione dello slug

Il nostro crawler assorbe il tuo HTML originale e crea una mappa dinamica dei contenuti.

  • La separazione dei codici: Analizziamo il DOM per identificare nodi di testo traducibili mentre "blocchiamo" attributi, script e classi HTML. Questo garantisce che il layout del sito non si rompa mai, anche nelle lingue Right-to-Left (RTL).
  • Traduzione del Slug: A differenza dei proxy standard, noi traduciamo il percorso URL stesso.

    Originale:example.com/products/red-running-shoes
    Localizzato:es.example.com/productos/zapatillas-rojas
    Impatto:

    Aumenta il tasso di clicchi (CTR) nei risultati di ricerca locali corrispondendo all'intento dell'utente.

Passo 4: Il collegamento interno della "ragnatela"

Per prevenire le "pagine orfane" (un problema comune in cui esistono pagine localizzate ma non sono collegate), inseriamo un blocco di routing dinamico.

  • Azione: Un
    oppure il blocco di navigazione nascosto viene aggiunto al DOM.
  • Contenuto:

    1. Cambiatori di lingua: Collegamenti diretti alle versioni EN, FR, DE del Attuale pagina.
    2. Collegamenti incrociati: Collegamenti ad altre pagine rilevanti all'interno dello stesso segmento linguistico.
  • Perché: Questo garantisce che i bot possano esplorare continuamente tutta la rete localizzata senza incorrere in vicoli ciechi.
FASE 3

Il livello SEO

Conformità di Google

Rigorosa aderenza alle linee guida ingegneristiche di Google per prevenire penalità per contenuti duplicati.

Passo 5: Iniezione di tag (Hreflang & Canonical)

Modifichiamo automaticamente il di ogni pagina servita per definire rigorosamente la sua relazione con la rete.

Mappe Hreflang: Iniettiamo un full x-default e mappa localizzata per ogni variazione di pagina.

<collegamento Rel="alternativo" hreflang="en" href="https://example.com/page" />
<collegamento Rel="alternativo" hreflang="es" href="https://es.example.com/pagina" />

Canonici auto-referenziali: La pagina spagnola indica se stessa come fonte canonica, assicurando che Google la indicizzi come un asset unico, non un duplicato della pagina inglese.

FASE 4

Lo strato GEO

Infrastruttura AI - La Salsa Segreta

La "Salsa Segreta." Questa fase costruisce il web parallelo per gli agenti AI (ChatGPT, Claude, Gemini).

Passaggio 6: Identità e Iniezione di Schema

Trasformiamo il tuo sito da "Stringhe" (testo) a "Cose" (Entità).

  • Azione: Il sistema genera uno script JSON-LD basato sul tuo Identity Graph.
  • Logica contestuale:

    • Globale: Inserisce lo schema dell'organizzazione (logo, social, fondatore) su tutte le pagine.
    • Livello pagina: Rileva automaticamente i tipi di contenuto (ad esempio, /blog/ Innesca: schema dell'articolo; /prodotto/ attiva lo schema del prodotto con prezzo e stock).
  • Risultato: I robot riconoscono il tuo marchio come entità verificata, fondamentale per apparire nei Knowledge Panel.

Passo 7: La creazione del "gemello IA" (Generazione Markdown)

Per ogni pagina HTML servita agli umani, generiamo un file Markdown nascosto e parallelo (.md) ottimizzato per i limiti dei token LLM.

Il processo di ottimizzazione:

  1. Intestazione contestuale: Inseriamo un riassunto "Cheat Sheet" in cima al file, fornendo ai modelli IA i fatti chiave (Chi, Cosa, Prezzo) nei primi 500 token.
  2. Estrazione del tavolo: Le tabelle HTML vengono convertite in pipe Markdown pulite | Colonna | Colonna | Per un'estrazione perfetta dei dati.
  3. Rimozione del rumore: Tutto CSS, JavaScript e decorazioni Divs vengono rimosse, lasciando solo il segnale semantico puro.

Passo 8: La Mappa dei Robot (llms.txt)

Generiamo e ospitiamo automaticamente una root level llms.txt file (ad esempio, es.example.com/llms.txt).

  • Scopo: Questa è la classica "Sitemap for Robots". Dice agli agenti IA esattamente dove trovare i file Markdown puliti (.md) invece di costringerli a scrapare HTML disordinato.
  • Contenuto:

    • Descrizione globale del sito (Prompt di sistema).
    • Elenco degli URL prioritari che ripuntano alle loro versioni "AI Twin".
FASE 5

Sicurezza e manutenzione

Il Loop

Garantire stabilità, sicurezza e analisi accurate.

Passo 9: Protocollo di Prevenzione dei Conflitti

Separiamo rigorosamente il "Web Umano" dal "Web AI" per prevenire conflitti SEO.

  • La regola: Tutti generavano Markdown (.md) sono serviti con un X-Robots-Tag: noindex Intestazione HTTP.
  • Il perché: Questo istruisce Googlebot a ignorare i file Markdown (prevenendo penalità per contenuti duplicati) permettendo però agli agenti IA (come GPTBot) consumarli liberamente tramite il llms.txt mappa.

Passo 10: Analisi Senziente

Monitoriamo le prestazioni della tua infrastruttura globale in tempo reale.

  • Bot Watch: I nostri log di margine identificano richieste specifiche da crawler AI (GPTBot, ClaudeBot, Perplexity), offrendoti visibilità sulla tua "quota di modello".
  • Geo-verifica: Monitoriamo il "Match Rate"—la percentuale di utenti di una specifica regione (ad esempio, la Spagna) che sono riusciti a trovare la versione localizzata corretta (ad esempio, es.example.com).

Pronto a vivere l'architettura?

Scopri come la nostra pipeline in 10 passi può trasformare il tuo sito web in una piattaforma globale pronta per l'IA.