Un giudice del Washington blocca l’uso di video migliorati dall’IA in un caso di omicidio

Fonte dell’immagine:https://www.nbcnews.com/news/us-news/washington-state-judge-blocks-use-ai-enhanced-video-evidence-rcna141932

Un giudice dello stato di Washington che supervisiona un caso di triplice omicidio ha vietato l’uso di video migliorati tramite intelligenza artificiale come prova, in una decisione che esperti hanno definito potenzialmente la prima del suo genere in un tribunale penale degli Stati Uniti.

La decisione, firmata venerdì dal giudice della Corte Superiore della contea di King, Leroy McCullogh, e riportata per la prima volta da NBC News, descrive la tecnologia come innovativa e afferma che essa si basa su “metodi opachi per rappresentare ciò che il modello di IA ‘pensa’ debba essere mostrato.”

“Questa Corte ritiene che l’ammissione di questa prova migliorata dall’IA porterebbe a una confusione delle questioni e a un offuscamento delle testimonianze oculari, e potrebbe condurre a un processo lungo e complesso riguardante il processo non sottoposto a revisione tra pari utilizzato dal modello di IA,” ha scritto il giudice nella sentenza, pubblicata nel registro il lunedì successivo.

La decisione arriva mentre l’intelligenza artificiale e i suoi usi — inclusa la proliferazione di deepfake sui social media e nelle campagne politiche — si evolvono rapidamente, mentre i legislatori statali e federali si confrontano con i potenziali pericoli posti da questa tecnologia.

Gli avvocati di un uomo accusato di aver aperto il fuoco fuori da un bar nella regione di Seattle nel 2021, uccidendo tre persone e ferendone due, avevano cercato di introdurre un video di cellulare migliorato tramite software di machine learning, mostrano i documenti processuali.

Il machine learning è un campo particolare all’interno dell’intelligenza artificiale che ha guadagnato riconoscimento negli ultimi anni come base della maggior parte dei moderni sistemi di IA.

I pubblici ministeri nel caso hanno affermato che non sembrava esserci alcun precedente legale che consentisse l’uso della tecnologia in un tribunale penale statunitense, secondo un deposito di febbraio presso la Corte Superiore della contea di King.

Jonathan Hak, un avvocato e solicitor in Canada ed esperto di prove basate su immagini negli Stati Uniti e altrove, ha dichiarato che questo era il primo caso di cui era a conoscenza in cui un tribunale penale avesse preso posizione sulla questione.

L’imputato, Joshua Puloka, 46 anni, ha sostenuto di essersi difeso durante le uccisioni del 26 settembre, con i suoi avvocati che hanno affermato in un deposito in tribunale di febbraio che stava cercando di disinnescare una situazione violenta quando è stato assalito e sono scoppiati colpi di arma da fuoco.

Puloka ha risposto al fuoco, colpendo mortalmente dei passanti innocenti, afferma il deposito.

L’uomo accusato di aver assalito Puloka è stato anch’esso colpito a morte, secondo un documento di dichiarazione di probabilità di causa.

Il mortale scontro è stato catturato nel video cellulare.

Per migliorare il video, gli avvocati di Puloka si sono rivolti a un uomo che non aveva mai gestito un caso penale, ma che aveva esperienza nella produzione e montaggio video creativi, secondo il deposito dei pubblici ministeri.

Il software da lui utilizzato, sviluppato dalla Topaz Labs con sede in Texas, afferma che il proprio software è utilizzato da studi cinematografici e altri professionisti creativi per “supercaricare” i video, secondo il deposito.

Gli avvocati di Puloka non hanno risposto a richieste di commento.

In una dichiarazione, un portavoce della Topaz Labs ha affermato che l’azienda “sconsiglia fortemente” di utilizzare la propria tecnologia di IA per applicazioni forensi o legali.

L’ufficio del procuratore ha affermato che il video migliorato prevedeva immagini anziché riflettere le dimensioni, la forma, i bordi e il colore catturati nel video originale.

Le immagini migliorate erano “inefficaci, fuorvianti e inaffidabili”, afferma il deposito.

In una dichiarazione per l’accusa inclusa nel deposito, un analista di video forense che ha esaminato le registrazioni originali e migliorate ha dichiarato che la versione migliorata conteneva dati visivi che non erano presenti nell’originale.

I dati erano stati anche rimossi dalla versione migliorata, secondo l’esperto, Grant Fredericks.

Ogni pixel “nel video generato dall’IA è nuovo, risultando in un video che può apparire più gradevole agli occhi di un osservatore comune, ma che contiene l’illusione di chiarezza e risoluzione dell’immagine aumentata che non rappresenta accuratamente gli eventi della scena originale,” ha scritto Fredericks nella dichiarazione.

In un deposito separato, gli avvocati di Puloka hanno controbattuto che tali affermazioni erano “esagerate e gonfiate.” Un confronto tra i due video mostra che la versione migliorata è una “raffigurazione fedele dell’originale,” secondo il deposito.

“Ed è proprio questo che conta.”

Nella sua dichiarazione, Fredericks, che ha insegnato per l’FBI e ha lavorato come analista di video per 30 anni, ha dichiarato di non essere a conoscenza di pubblicazioni sottoposte a revisione tra pari che stabiliscano un metodo accettato per i miglioramenti video tramite IA.

L’FBI non include nulla sull’argomento nelle sue migliori pratiche per la gestione dei video forensi, ha detto.

George Reis, un ex investigatore di scena del crimine e analista di video forense di lunga data nella California meridionale, ha dichiarato di essere a conoscenza di un certo numero di esempi in cui l’intelligenza artificiale è stata utilizzata come potenziale strumento investigativo per chiarire le immagini delle targhe.

Una delle aziende che ha sviluppato un software di questo tipo, Amped, ha affermato in un post di febbraio che l’intelligenza artificiale non è abbastanza affidabile per essere utilizzata per il miglioramento delle immagini in un contesto legale.

L’azienda ha fatto riferimento ai risultati opachi della tecnologia e ai potenziali risultati distorti.

“È una scienza nuova,” ha detto Reis.

“Dovrebbe essere condotta ricerca su di essa prima che qualcuno la utilizzi in casi reali.

Dovrebbe essere sottoposta a revisione tra pari.

Non sono certo quale livello sarà appropriato in futuro per l’uso dell’IA nel chiarire una fotografia o un video, ma in questo momento è prematuro.”