Pochi giorni fa, la High Court di Londra ha preso posizione su una delle cause più discusse dell’anno. Getty Images ha accusato Stability AI di aver utilizzato, senza licenza, milioni di immagini protette da copyright per addestrare il suo sistema di intelligenza artificiale generativa, Stable Diffusion.

Il tribunale ha deciso di non riconoscere una violazione formale del diritto d’autore. Ma non ha chiuso il caso. Anzi, ha sottolineato la necessità di indagare su come vengano trattati watermark e identità visiva delle immagini originali. Una sfumatura, ma non da poco.

Chi lavora nel nostro settore sa che non si tratta solo di una questione legale tra due giganti. Il vero punto è: cosa succede alle immagini una volta che entrano nei dataset delle AI?
E soprattutto: chi è ancora responsabile del contenuto, quando l’autore si perde tra milioni di dati?

Nel nostro lavoro quotidiano, che sia con clienti editoriali o con agenzie corporate, riceviamo sempre più domande sulla tracciabilità. “Questa immagine è certificata?” “Possiamo usarla in una campagna senza rischi?”
Domande legittime, a cui si può rispondere solo con una gestione consapevole dei diritti e una filiera trasparente.

Per questo noi in IPA non smettiamo di puntare su archivi documentati, licensing chiari e contenuti originali. Soprattutto ora che, tra AI, remix e deepfake, la differenza tra ciò che è vero e ciò che è “simile al vero” diventa sempre più sottile.

La sentenza Getty vs Stability AI è un primo tassello. Il dibattito, però, è appena iniziato.