Apprentissage profond, une révolution

Cloud Machine. Learning Engine ... Vie Privée. Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data. Papernot, Abadi, Erlingsson ...
5MB taille 2 téléchargements 63 vues
Apprentissage profond, une révolution technologique de l'intelligence artificielle Hugo Larochelle, Google Brain

Intelligence Artificielle Rendre les machines intelligentes

Apprentissage Profond Rendre les machines capables d’apprendre

Observation: Programmer un ordinateur à être intelligent est plus ardu que le programmer à apprendre à devenir intelligent

Réseaux de Neurones Artificiels

Réseaux de Neurones Artificiels

Réseaux de Neurones Artificiels

Réseaux de Neurones Artificiels

Réseaux de Neurones Artificiels

Réseaux de Neurones Artificiels

Mes 10 années d’apprentissage profond

La Recette Ressources de calcul

Cloud Machine Learning Engine

Libraries et logiciels

Partage d’information

TensorFlow

Google Brain

Mélie

Évelyne

?

Mélie Marilou

Madeleine

Réseau de Neurones: À Retenir... ● Données sont “compressées” dans ses poids [Vie Privée]

● Le rôle joué par ses unités cachées n’est pas évident [Interprétabilité]

● Peut ne pas bien généraliser loin des données [Équité]

● Peut ne pas bien généraliser proche des données [Robustesse]

Vie Privée ● Données sont “compressées” dans ses poids ● Question: comment assurer que personne ne puisse “décompresser” les données à partir de ces poids? ● Réponse: partager un deuxième réseau de neurones qui 1) imite le réseau original mais 2) ne voit jamais les données privées

Vie Privée

Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data Papernot, Abadi, Erlingsson, Goodfellow, Talwar, 2017

Interprétabilité ● Le rôle joué par ses unités cachées n’est pas évident ● Question: comment comprendre pourquoi un réseau de neurones fait les prédictions qu’il produit ● Réponse: on identifie les parties de son entrée qui influence le plus sa sortie

Interprétabilité

SmoothGrad: removing noise by adding noise Smilkov, Thorat, Kim, Viégas, Wattenberg, 2017

Interprétabilité

SmoothGrad: removing noise by adding noise Smilkov, Thorat, Kim, Viégas, Wattenberg, 2017

Équité ● Peut ne pas bien généraliser loin des données ● Question: comment assurer que le réseau de neurones n’est pas influencé pas des biais dans ses données? ● Réponse: ○ utiliser des outils de visualisation de données pour corriger ces biais ○ entraîner explicitement le réseau de neurones à ne pas utiliser de l’information sensible qui pourrait introduire des biais

Équité

Facets Dive People+AI Research Initiative, 2017

Équité

entrée

sortie

information sensible Domain-Adversarial Training of Neural Networks Ganin, Ustinova, Ajakan, Germain, Larochelle, Laviolette, Marchand, Lempitsky, 2017

Robustesse ● Peut ne pas bien généraliser proche des données ● Question: comment s’assurer qu’un réseau de neurones ne peut être dupé à produire la mauvaise sortie ● Answer: entraîner le réseau de neurones à être robuste par rapport aux entrées qui dupent d’autres réseaux non-robuste

Robustesse

Intriguing Properties of Neural Networks Szegedy, Zaremba, Sutskever, Bruna, Erhan, Goodfellow, Fergus, 2014

Robustesse

Intriguing Properties of Neural Networks Szegedy, Zaremba, Sutskever, Bruna, Erhan, Goodfellow, Fergus, 2014

Robustesse Données

Réseaux pré-entraînés

Réseau robuste

Ensemble Adversarial Training: Attacks and Defenses Florian Tramèr, Alexey Kurakin, Nicolas Papernot, Dan Boneh, Patrick McDaniel, 2017

Intelligence Artificielle Responsable ● Il est alors important d'étudier les modes de défaillance de l’IA

● Bonne nouvelle: les chercheurs s’y acharnent déjà, et d’autres avancées sont à venir! ● Ces préoccupations ne sont pas nécessaires pour toutes les applications ○

La plupart des applications actuelles de l’IA ne sont pas à risque

● Principe directeur: garder l’utilisateur en tête!

Merci!