Table des matières:
- Propriété des données et confidentialité
- Le droit d'être oublié
- Le droit à l'explication
- Externalisation de l'IA
- Le GDPR entravera-t-il l'innovation?
Vidéo: Doris Day - Que Sera Sera (Novembre 2024)
Dans ce qui peut être décrit comme une sorte de course aux armements, les entreprises technologiques ont amassé de grands volumes de données utilisateur pour affiner les algorithmes d'intelligence artificielle qui alimentent leurs applications et leurs plates-formes. Jusqu'à présent, ils ont surtout pu échapper à la responsabilité lorsque leurs pratiques les ont poussés dans des zones grises juridiques et éthiques.
Cela peut sembler une mauvaise nouvelle pour les entreprises qui utilisent des algorithmes d'intelligence artificielle, qui ont bénéficié d'une réglementation laxiste en matière de collecte de données (et de termes de service longs, ennuyeux et ambigus). Certains craignent que des règles plus strictes entravent l'innovation et le déploiement de l'intelligence artificielle dans de nombreuses applications et domaines. D'autres pensent que la nouvelle directive créera une base sur laquelle les applications d'intelligence artificielle deviendront plus fiables et plus fiables.
Quoi qu'il en soit, le secteur de l'IA est sur le point de changer radicalement à l'ère du GDPR.
Propriété des données et confidentialité
"Le GDPR est un gros problème pour l'intelligence artificielle, car il est nécessaire de réfléchir différemment à la manière dont nous recueillons et utilisons les données", a déclaré Tim Estes, fondateur et président de Digital Reasoning. "Pendant trop longtemps, les entreprises de technologie ont insisté sur le fait que, pour tirer le meilleur parti de leurs produits et services, vous deviez abandonner vos données."
Auparavant, les entreprises n'étaient tenues que d'un vague consentement des utilisateurs leur permettant de collecter toutes sortes de données. "L'intelligence artificielle a permis de maintenir le battage médiatique autour des données massives, fournissant ainsi une raison supplémentaire pour laquelle les entreprises doivent collecter et exploiter toutes les données disponibles", a déclaré Estes. "De nombreuses entreprises ont commencé à implémenter l'intelligence artificielle pour analyser leurs données simplement parce qu'elles pensent qu'elles devraient le faire, sans se préoccuper de l'impact sur la confidentialité des utilisateurs ou la propriété des données."
Le principe de base du GDPR est que les données appartiennent aux utilisateurs. En vertu du RGPD, les entreprises devront révéler toute la portée des informations recueillies, leur utilisation, leur protection et la prévention de tout accès non autorisé. Les nouvelles règles obligeront les sociétés d'intelligence artificielle à être plus méticuleuses quant aux données qu'elles collectent, au lieu de s'engager dans la thésaurisation, le traitement et le partage gratuits des informations des utilisateurs.
Le droit d'être oublié
Le GDPR donne aux utilisateurs le pouvoir d'exiger qu'une entreprise efface toutes ses données de ses serveurs. Cela ne plaira pas aux sociétés d'intelligence artificielle, qui ont tout intérêt à conserver autant de données utilisateur que possible pour effectuer des tâches telles que la prévision des tendances et le comportement des utilisateurs.
"En fin de compte, le GDPR traite de la manière dont vous collectez et gérez les données et pas nécessairement de la quantité de données dont vous disposez", a déclaré Maryna Burushkina, PDG de GrowthChannel. "La principale difficulté à laquelle la plupart des entreprises seront confrontées n’est pas d’obtenir des opt-ins, mais plutôt de gérer les données, de communiquer leur utilisation aux utilisateurs et de leur permettre de les supprimer."
Les sociétés d'intelligence artificielle devront prendre des mesures supplémentaires pour rendre leurs données anonymes si elles souhaitent toujours avoir accès à ces informations. Toutefois, les entreprises qui disposent déjà de vastes stocks de données utilisateur sont confrontées à d'autres problèmes.
"Dans le cadre du GDPR, si une entreprise veut effacer une IPI spécifique, elle doit s'assurer de l'effacer partout", explique Amnon Drori, PDG d'Octopai. Cela peut être une tâche ardue à effectuer manuellement lorsque vos données sont dispersées sur différents serveurs et stockées dans différents formats structurés et non structurés.
Par exemple, lors de la suppression du numéro de carte de crédit d'un utilisateur (certainement une information sensible), les entreprises devront examiner chaque rapport, base de données, objet de base de données et ETL où les informations sont stockées. "Parfois, nous voyons différents noms de métadonnées pour le même élément: par exemple, " numéro de carte de crédit ", " numéro cc ", " numéro de crédit c ", " numéro de carte ", " numéro de carte de crédit "… la liste est longue et sur, "dit Drori. Il est souvent impossible de savoir où regarder et le processus peut prendre des semaines, voire des mois, et comme de nombreux processus manuels, il est sujet aux erreurs humaines et aux inexactitudes, explique Drori.
Le GDPR augmentera également le coût des erreurs humaines dans le traitement des données. «C’est pourquoi tant d’entreprises cherchent aujourd'hui une solution automatisée pour gérer leurs métadonnées avec précision», déclare Drori. Ironiquement, peut-être que l'IA elle-même peut constituer une solution à cet égard. Les outils de gestion des métadonnées basés sur l'IA peuvent analyser toutes les sources de données d'une organisation et consolider les relations entre différents outils et sources de données.
Le droit à l'explication
L’une des parties les plus importantes du RGPD en matière d’IA est ce que l’on appelle maintenant le «droit à une explication». La directive stipule que les entreprises doivent informer les utilisateurs de "l'existence d'une prise de décision automatisée" et leur fournir "des informations utiles sur la logique impliquée, ainsi que sur l'importance et les conséquences envisagées d'un tel traitement pour la personne concernée".
Cela signifie essentiellement que les utilisateurs doivent savoir quand ils sont directement ou indirectement soumis à des algorithmes d'intelligence artificielle et doivent être en mesure de contester les décisions prises par ces algorithmes et de demander une preuve de la façon dont la conclusion a été tirée. Ce sera l'un des plus grands défis auxquels l'industrie de l'IA sera confrontée.
Les réseaux de neurones profonds, la principale technologie à la base des algorithmes d'IA modernes, sont des structures logicielles complexes qui créent leurs propres règles de fonctionnalité en analysant de grands ensembles de données et en recherchant des corrélations et des modèles. À mesure que les réseaux de neurones se complexifient, leur comportement devient de plus en plus difficile à décomposer. Souvent, même les ingénieurs ne peuvent expliquer les raisons des décisions prises par leurs algorithmes d'intelligence artificielle.
Appelé le problème de la "boîte noire", l'inexplicabilité des algorithmes d'IA a rendu difficile leur mise en œuvre dans les décisions des tribunaux, l'application de la loi, les demandes de prêt et de crédit, le recrutement, les soins de santé et d'autres domaines critiques. Mais sans aucune influence juridique, les sociétés d'intelligence artificielle étaient peu incitées à rendre leurs algorithmes d'intelligence artificielle plus transparents, en particulier lorsqu'ils étaient étroitement liés à leurs secrets commerciaux.
Désormais, GDPR demandera aux sociétés d’intelligence artificielle d’expliquer les décisions prises par leurs algorithmes.
"Dans le cadre du GDPR, les organisations sont tenues de décrire clairement la méthode de traitement en langage humain tout en demandant le consentement du sujet", déclare Pascal Geenens, chercheur en sécurité chez Radware. "À mesure que l'apprentissage en profondeur évolue et que les scientifiques des données sont incapables de caractériser une nature déterministe derrière le raisonnement du réseau de neurones, cette description pourrait devenir plus complexe et difficile à expliquer."
Fondamentalement, le GDPR consiste à responsabiliser les humains qui traitent les données, explique Geenens. Donc, si vous utilisez des algorithmes d'apprentissage automatique pour effectuer le traitement, vous devez les concevoir de manière à vous permettre d'expliquer les décisions qu'ils prennent en votre nom.
Une poignée d'organisations essaient de développer des technologies pour rendre l'IA plus transparente. Parmi eux, citons Explainable AI (XAI) de la DARPA, un projet de recherche visant à rendre les décisions basées sur l'IA compréhensibles.
Externalisation de l'IA
Le GDPR affectera également les organisations qui mettent leurs données à la disposition de tiers. Facebook est un exemple frappant de ce type d'entreprise. dans son scandale Cambridge Analytica, le géant des médias sociaux n'a pas empêché la société d'extraction de données de collecter et d'exploiter les données de 87 millions d'utilisateurs. Mais le GDPR aura également des conséquences pour les entreprises qui externalisent leurs fonctionnalités d'IA et mettent leurs données à la disposition des fournisseurs d'IA.
"Tandis que beaucoup supposent que les fournisseurs d'IA sont comme les autres fournisseurs de services - offrant simplement leur technologie en échange d'une compensation monétaire - la vérité est que, les fournisseurs d'IA établissent également des partenariats commerciaux comme un moyen de développer et de faire évoluer leur technologie", a déclaré le chef Estes cadre de Digital Reasoning. Cela signifie qu'un fournisseur d'IA peut vouloir conserver les données d'un client pour former ses propres algorithmes et les utiliser dans d'autres domaines.
Par exemple, un fournisseur d'IA qui aide un organisme de soins de santé à trouver des tendances dans les symptômes et à améliorer les diagnostics peut rencontrer un ensemble de données qui améliore ses algorithmes propriétaires. La société d'intelligence artificielle pourrait alors vouloir exploiter les données pour améliorer ses algorithmes pour d'autres types de soins aux patients, afin de faire évoluer ses capacités afin d'aider d'autres prestataires de soins de santé. En vertu du RGPD, l’organisation de santé en charge des données sera tenue pour responsable de toute utilisation non éthique par le fournisseur d’IA. Selon Estes, la clé est que les entreprises recherchent des fournisseurs d'IA qui croient en la possession des algorithmes, pas des données.
"Le GDPR obligera les entreprises à accorder une plus grande attention à la manière et au moment où leurs données sont utilisées, à quel endroit elles sont stockées et à ce qu'il advient après la fin du projet", a déclaré Estes. "Cela implique de travailler avec des fournisseurs d'IA qui aident à définir les lignes de propriété des données et à mettre en œuvre des stratégies qui protègent les informations des utilisateurs, sans pour autant nuire à la manière dont ils peuvent contribuer au succès des algorithmes d'IA."
Le GDPR entravera-t-il l'innovation?
Les experts interrogés estiment que, si les nouvelles réglementations remettent en cause les pratiques et habitudes actuelles des sociétés d'IA, elles les obligeront également à trouver de nouveaux moyens d'innover et à respecter les normes éthiques et de respect de la vie privée.
"Avec l'entrée en vigueur de la réglementation GDPR, tous les grands éditeurs de logiciels prennent les mesures nécessaires non seulement pour garantir la conformité, mais également pour innover et sortir des sentiers battus afin de trouver de nouvelles opportunités sur le marché", déclare Burushkina, de GrowthChannel.
"L'innovation ne sera pas entravée - mais dirigée et motivée - par le GDPR", déclare Drori d'Octopai. Parallèlement, le GDPR créera également de nouvelles entreprises et technologies qui aideront les organisations à atteindre et à maintenir la conformité au GDPR.
Les normes définies par le GDPR pourraient en fait contribuer à combler le fossé grandissant en matière de confiance entre les fournisseurs et les utilisateurs de services basés sur l'IA. Estes pense que le GDPR responsabilisera à la fois les fournisseurs d’IA et ceux qui mettent en œuvre leur technologie sur le mode et le lieu où ils utilisent les ressources de données et les pousseront à faire passer les utilisateurs avant les profits. "En fin de compte, " dit-il, "les fournisseurs d'IA ne devraient posséder que les algorithmes, pas les données, pour innover en matière de capacités et de solutions."