# Architecture
**Source:** https://it.multilipi.com/technology/architecture
**Language:** Italian

---

Documentazione tecnica

# L'architettura MultiLipi

Un'analisi tecnica approfondita della nostra infrastruttura a doppio livello

## Panoramica

I plugin di traduzione tradizionali operasul "Visual Layer" — scambiando stringhe di testo nel browser. Sebbene questo soddisfi i lettori umani, crea un ambiente caotico per i crawler di ricerca e gli agenti IA.

MultiLipi è la prima piattaforma a progettare una **Architettura a doppio livello** :

### Il livello HTML

Pagine completamente renderizzate e localizzate per umani e Googlebot.

### Il Livello Dati

Un'infrastruttura parallela e strutturata (Markdown + JSON-LD) ottimizzata specificamente per Large Language Models (LLM).

Di seguito è riportata la documentazione passo dopo passo di come il nostro **Pipeline a 10 fasi** trasforma un URL statico in un'entità globale pronta per l'IA.

FASE 1

## Configurazione dell'infrastruttura

La Fondazione

Stabiliamo il livello fisico di routing e sicurezza prima di toccare una singola parola di contenuto.

### Passaggio 1: Provisioning Intelligente & SSL

Al momento della connessione, il nostro sistema prende le impronte digitali del tuo CMS d'origine (Shopify, Webflow, WordPress o Custom Stack) per determinare il metodo di iniezione ottimale.

- **Azione:** Forniamo istantaneamente certificati SSL dedicati per i tuoi endpoint localizzati.
- **Meccanismo:** Il Protocollo Secure Handshake (TLS 1.3) garantisce che i dati che passatra il server di origine e i nostri nodi edge siacriptati, con l'aggiunta di latenza zero al Time to First Byte (TTFB).

### Passo 2: Mappatura dell'architettura URL

Supportiamo tre architetture di routing distinte per adattarsi alla tua strategia SEO.

#### Opzione A: Sottodomini (Distribuzione più veloce)

**Struttura:**  `es.example.com`, `fr.example.com`

**Meglio per:** Grandi siti aziendali che necessitadi separazione delle preoccupazioni.

#### Opzione B: Sottodirectory (massima autorità SEO)

**Struttura:**  `example.com/es/` , `example.com/fr/`

**Meccanismo:** Forniamo uscript Reverse Proxy leggero (Cloudflare Worker o configurazione Nginx) che instrada`/ES/` traffico verso i nostri server edge mantenendo l'autorità del dominio unificata.

#### Opzione C: ccTLD (Dominanza Locale)

**Struttura:**  `example.es` , `example.fr`

**Meccanismo:** La mappatura avanzata CNAME permette di indirizzare domini di paese personalizzati al nostro motore di localizzazione.

FASE 2

## Elaborazione dei contenuti

Lo strato neurale

Separiamo "Contenuto" da "Codice" per garantire una localizzazione perfetta senza interrompere la funzionalità dell'interfaccia utente.

### Passo 3: Ingestione profonda e localizzazione dello slug

Il nostro crawler assorbe il tuo HTML originale e crea una mappa dinamica dei contenuti.

- **La separazione dei codici:** Analizziamo il DOM per identificare nodi di testo traducibili mentre "blocchiamo" attributi, script e classi HTML. Questo garantisce che il layout del sito non si rompa mai, anche nelle lingue Right-to-Left (RTL).
- **Traduzione del Slug:** A differenza dei proxy standard, noi traduciamo il percorso URL stesso.

  Originale: `example.com/products/red-running-shoes`

  Localizzato: `es.example.com/productos/zapatillas-rojas`

  Impatto: 

  Aumenta il tasso di clicchi (CTR) nei risultati di ricerca locali corrispondendo all'intento dell'utente.

### Passo 4: Il collegamento interdella "ragnatela"

Per prevenire le "pagine orfane" (un problema comune in cui esistopagine localizzate ma non socollegate), inseriamo un blocco di routing dinamico.

- **Azione:** Un `<footer>`oppure il blocco di navigazione nascosto viene aggiunto al DOM.
- **Contenuto:**

  1. **Cambiatori di lingua:** Collegamenti diretti alle versioni EN, FR, DE del *Attuale* pagina.
  2. **Collegamenti incrociati:** Collegamenti ad altre pagine rilevanti all'interdello stesso segmento linguistico.
- **Perché:** Questo garantisce che i bot possaesplorare continuamente tutta la rete localizzata senza incorrere in vicoli ciechi.

FASE 3

## Il livello SEO

Conformità di Google

Rigorosa aderenza alle linee guida ingegneristiche di Google per prevenire penalità per contenuti duplicati.

### Passo 5: Iniezione di tag (Hreflang & Canonical)

Modifichiamo automaticamente il `<head>` di ogni pagina servita per definire rigorosamente la sua relazione con la rete.

**Mappe Hreflang:** Iniettiamo un full `x-default` e mappa localizzata per ogni variazione di pagina.

<collegamento  Rel ="alternativo"  hreflang ="en"  href ="https://example.com/page"  />

<collegamento  Rel ="alternativo"  hreflang ="es"  href ="https://es.example.com/pagina"  />

**Canonici auto-referenziali:** La pagina spagnola indica se stessa come fonte canonica, assicurando che Google la indicizzi come un asset unico, non un duplicato della pagina inglese.

FASE 4

## Lo strato GEO

Infrastruttura AI - La Salsa Segreta

La "Salsa Segreta." Questa fase costruisce il web parallelo per gli agenti AI (ChatGPT, Claude, Gemini).

### Passaggio 6: Identità e Iniezione di Schema

Trasformiamo il tuo sito da "Stringhe" (testo) a "Cose" (Entità).

- **Azione:** Il sistema genera uscript JSON-LD basato sul tuo Identity Graph.
- **Logica contestuale:**

  - **Globale:** Inserisce lo schema dell'organizzazione (logo, social, fondatore) su tutte le pagine.
  - **Livello pagina:** Rileva automaticamente i tipi di contenuto (ad esempio, `/blog/` Innesca: schema dell'articolo; `/prodotto/` attiva lo schema del prodotto con prezzo e stock).
- **Risultato:** I robot riconoscoil tuo marchio come entità verificata, fondamentale per apparire nei Knowledge Panel.

### Passo 7: La creazione del "gemello IA" (Generazione Markdown)

Per ogni pagina HTML servita agli umani, generiamo un file Markdown nascosto e parallelo ( `.md` ) ottimizzato per i limiti dei token LLM.

**Il processo di ottimizzazione:**

1. **Intestazione contestuale:** Inseriamo un riassunto "Cheat Sheet" in cima al file, fornendo ai modelli IA i fatti chiave (Chi, Cosa, Prezzo) nei primi 500 token.
2. **Estrazione del tavolo:** Le tabelle HTML vengoconvertite in pipe Markdown pulite `| Colonna | Colonna |` Per un'estrazione perfetta dei dati.
3. **Rimozione del rumore:** Tutto CSS, JavaScript e decorazioni `Divs` vengorimosse, lasciando solo il segnale semantico puro.

### Passo 8: La Mappa dei Robot (llms.txt)

Generiamo e ospitiamo automaticamente una root level `llms.txt`file (ad esempio, `es.example.com/llms.txt`).

- **Scopo:** Questa è la classica "Sitemap for Robots". Dice agli agenti IA esattamente dove trovare i file Markdown puliti ( `.md` ) invece di costringerli a scrapare HTML disordinato.
- **Contenuto:**

  - Descrizione globale del sito (Prompt di sistema).
  - Elenco degli URL prioritari che ripuntaalle loro versioni "AI Twin".

FASE 5

## Sicurezza e manutenzione

Il Loop

Garantire stabilità, sicurezza e analisi accurate.

### Passo 9: Protocollo di Prevenzione dei Conflitti

Separiamo rigorosamente il "Web Umano" dal "Web AI" per prevenire conflitti SEO.

- **La regola:** Tutti generavaMarkdown ( `.md` ) soserviti con un `X-Robots-Tag: noindex` Intestazione HTTP.
- **Il perché:** Questo istruisce Googlebot a ignorare i file Markdown (prevenendo penalità per contenuti duplicati) permettendo però agli agenti IA (come `GPTBot` ) consumarli liberamente tramite il `llms.txt`mappa.

### Passo 10: Analisi Senziente

Monitoriamo le prestazioni della tua infrastruttura globale in tempo reale.

- **Bot Watch:** I nostri log di margine identificarichieste specifiche da crawler AI (GPTBot, ClaudeBot, Perplexity), offrendoti visibilità sulla tua "quota di modello".
- **Geo-verifica:** Monitoriamo il "Match Rate"—la percentuale di utenti di una specifica regione (ad esempio, la Spagna) che soriusciti a trovare la versione localizzata corretta (ad esempio, `es.example.com`).

## Pronto a vivere l'architettura?

Scopri come la nostra pipeline in 10 passi può trasformare il tuo sito web in una piattaforma globale pronta per l'IA.