← Torna alla home

Trasparenza nell'uso dell'IA

Credo che l'adozione responsabile dell'Intelligenza Artificiale passi dalla trasparenza. Qui trovi esattamente quali strumenti AI uso, come tratto i dati dei clienti e come mi conformo alla normativa europea (AI Act — Reg. UE 2024/1689).

1. Strumenti AI utilizzati

I seguenti sistemi AI sono integrati nell'erogazione dei servizi e nel sito:

StrumentoFunzioneDati coinvoltiData retention
n8n (self-hosted)Automazione workflow (ricezione form, notifiche, archiviazione)Nome, email, risposte test/chatNessuna retention esterna — dati su VPS privato EU
Anthropic ClaudeAnalisi testo, elaborazione richieste, supporto consulenzaTesto delle richieste (no dati identificativi se non necessario)Zero data retention (API, no training)
Google SheetsArchiviazione risultati test e chatNome, email, profilo, risposteConservati fino a cancellazione su richiesta
CalendlyPrenotazione appuntamentiNome, email, fuso orarioPolicy Calendly (max 2 anni)

2. Sicurezza dei dati con l'AI

  • API-only: i dati vengono inviati ai provider AI solo tramite API sicure, non caricati su interfacce web pubbliche o strumenti consumer
  • Zero training retention: dove disponibile (es. Anthropic API), è attiva la policy di zero data retention — i dati non vengono usati per addestrare modelli pubblici
  • Connessioni cifrate: tutte le comunicazioni con provider AI avvengono via HTTPS/TLS
  • VPS EU: n8n è self-hosted su server in Europa — nessun dato core risiede fuori dal SEE
  • Minimizzazione: vengono inviati ai Sistemi AI solo i dati strettamente necessari per la funzione richiesta

3. Conformità AI Act (Reg. UE 2024/1689)

3.1 Classificazione del rischio

I sistemi AI utilizzati nell'erogazione dei servizi ricadono nella categoria rischio limitato ai sensi dell'AI Act: si tratta di sistemi di elaborazione del linguaggio naturale (NLP) a scopo consultivo, non sistemi ad alto rischio (es. AI per selezione del personale, scoring creditizio, biometria).

3.2 Obblighi rispettati

  • Trasparenza (Art. 13): gli utenti sono informati dell'utilizzo di sistemi AI attraverso i disclaimer presenti nei form del sito e in questa pagina
  • Supervisione umana (Art. 14): ogni output AI rilevante è soggetto a revisione professionale prima di essere presentato al Cliente come raccomandazione operativa
  • AI Literacy (Art. 4): i servizi di formazione includono educazione sull'uso responsabile degli strumenti AI per dipendenti e collaboratori dei Clienti

3.3 Diritti degli interessati

In conformità con l'Art. 22 GDPR, l'utente ha il diritto di non essere soggetto a decisioni basate esclusivamente sul trattamento automatizzato che producano effetti giuridici o che incidano significativamente sulla sua persona. Tutti gli output AI prodotti nell'ambito dei servizi sono assistiti da supervisione umana professionale.

4. Data Processing Agreement

Per i Clienti che nominano Luigi Copertino come Responsabile del Trattamento ai sensi dell'Art. 28 GDPR — tipicamente quando vengono elaborati dati personali dei clienti del Cliente — è disponibile un Data Processing Agreement (DPA) standard su richiesta.

Per ricevere il DPA scrivere a info@luigicopertino.it.

5. Gestire l'AI responsabilmente nella tua PMI

Integrare l'AI in modo responsabile richiede chiarezza su compliance, sicurezza dei dati e gestione del rischio. Se vuoi capire come farlo in modo pratico per la tua azienda, parliamone.

Hai domande su come gestiamo i dati AI nei tuoi processi aziendali?