Telegram


Podcast

Store
  

Fonte: Reuben Binns - Segnalato da: Spataro - 2019-07-02 - Post successivo - Stampa - pag. 94616

L'intelligenza artificiale deve argomentare le proprie scelte. Anche per la privacy.

Privacy Risks of Explaining Machine Learning Models - Reuben Binns


"

"Can we trust black-box machine learning with its decisions?"

Lo studio che segue parte da questo presupposto, per arrivare a considerare anche gli aspetti legati alla privacy.

E' sicuramente un collegamento innovativo da approfondire.

Quando ho sviluppato il mio bot sulla privacy basato su una base di conoscenze gerarchiche e strutturate mi sono trovato a fare il debug.

I criteri erano numerosi, e in ricorsione.

Il debug era indispensabile, bisognava capire quali regole (deterministiche) erano state utilizzate nelle varie richieste (non deterministiche).

Mi chiedo come possano gli sviluppatori mondiali non avere strumenti simili, e non credo che non ne abbiano.

Ora: un conto e' analizzare conversazioni, un altro big data.

Comunque nel rispondere "a tono" e' necessario conoscere il contesto, qunidi insieme ai big data si fa uso dei dati forniti, cosi' come per ogni conversazione, sia pure per la sola durata della conversazione.

Poi si possono anonimizzare, ad esempio.

Il tema e' ampio e merita attenzione. Ringrazio Reuben Binns da UK per la segnalazione.

Il pdf e' al link indicato e manifesta con evidenza come il tema non possa essere affidato ai soli giuristi.

Computer Science > Machine Learning
Privacy Risks of Explaining Machine Learning Models

Can we trust black-box machine learning with its decisions? Can we trust algorithms to train machine learning models on sensitive data? Transparency and privacy are two fundamental elements of trust for adopting machine learning. In this paper, we investigate the relation between interpretability and privacy. In particular we analyze if an adversary can exploit transparent machine learning to infer sensitive information about its training set. To this end, we perform membership inference as well as reconstruction attacks on two popular classes of algorithms for explaining machine learning models: feature-based and record-based influence measures. We empirically show that an attacker, that only observes the feature-based explanations, has the same power as the state of the art membership inference attacks on model predictions. We also demonstrate that record-based explanations can be effectively exploited to reconstruct significant parts of the training set. Finally, our results indicate that minorities and special cases are more vulnerable to these type of attacks than majority groups.

Ricevi gli aggiornamenti su 'L'intelligenza artificiale deve argomentare le proprie scelte. Anche per la privacy.', Intelligenza artificiale e gli altri post del sito:

Email: (gratis Info privacy)


Link a Reuben Binns : https://arxiv.org/abs/1907.00164

Altro su Intelligenza artificiale:

The European Ethical Charter on the use of artificial intelligence

Approfondimento: come usare l'intelligenza artificiale nel diritto italiano

Il cittadino ha diritto di conoscere gli algoritmi della P.A.

Ippocrate e il giuramento per chi fa l'IA

Etica, Commissione Europea e linee guida

In lotta per la vita per sei minuti contro il computer d bordo.

Il Garante sulle linee guida nell'intelligenza artificiale: obbligo di vigilare sugli algoritmi.

I Boeing 737 max sono caduti per il software troppo smart

AI e deep learning: interferenze nell'apprendimento neuronale

Intelligenza artificiale e algoritmi nel diritto: gravi rischi







  






v. anche: Segnala - Collabora - Embed - Civile.it - Codici - Ebook - G.U. - IusSeek - Sentenze - Chi siamo   

On line dal 1999. Tutti i diritti riservati - Toolbar - Privacy - Cookie - @IusOnDemand - Contatti - P.IVA: 04446030969 -