Les risques à surmonter

Les risques à surmonter

D'une façon générale, les risques liés à l'utilisation de l'IA sont déjà bien connus et identifiés. Le Livre blanc de la Commission européenne les a répertoriés en deux catégories V. en ce sens, https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf">Lien, p. 12. .
La première catégorie englobe les atteintes aux droits fondamentaux tels que le respect de la vie privée et de la non-discrimination, la liberté d'expression, la protection des données à caractère personnel… De tels risques trouvent leur origine tantôt dans une mauvaise conception globale des systèmes d'IA, tantôt dans l'utilisation de données sans correction de biais éventuels. Les failles dans la conception peuvent résulter d'une mauvaise corrélation entre une cause et ses effets. La conclusion tirée par l'IA de l'analyse des données n'est pas nécessairement celle à laquelle l'homme arriverait. Ainsi, en matière contractuelle, l'IA pourrait aboutir par exemple à l'exclusion du mesurage d'un grenier (décrit tel quel dans l'état descriptif de division de la copropriété) alors même qu'il a été transformé en chambre depuis la dernière mutation L. no 65-557, 10 juill. 1965, art. 46, fixant le statut de la copropriété des immeubles bâtis ; D. no 67-223, 17 mars 1967, art. 4-2, pris pour l'application de la loi no 65-557 du 10 juillet 1965 fixant le statut de la copropriété des immeubles bâtis. , car cela suppose une analyse de contextualisation que l'IA n'est pas en capacité d'effectuer. Les biais, discriminations et exclusions éventuels peuvent résulter d'actes de malveillance de personnes impliquées dans l'élaboration de l'algorithme utilisé par l'IA Pour un exemple en matière judiciaire, Entretien avec C. Feral-Schuhl, 7 juill. 2020 (www.actualitesdudroit.fr/browse/vie-des-professions-juridiques-et-judiciaires/avocat/28188/christiane-feral-schuhl-je-suis-convaincue-qu-il-faut-que-l-on-forme-les-avocats-a-contrer-les-resultats-produits-par-les-algorithmes-exploitant-l-open-data">Lien). . Ainsi, en matière contractuelle, l'IA pourrait aboutir à la fixation du montant d'une indemnité d'occupation en fonction de la profession ou de l'âge du bénéficiaire de la promesse unilatérale de vente. Enfin, l'anonymat reste l'un des enjeux les plus importants en matière d'IA dans la mesure où la conservation des données à caractère personnel constitue la raison d'être de l'IA.
La seconde catégorie de risques regroupe les atteintes à la sécurité des personnes et au bon fonctionnement du régime de responsabilité. Ainsi, l'opacité, la complexité, l'imprévisibilité et le comportement partiellement autonome rendent la vérification de la conformité difficile. Ce dernier aspect résulte d'une difficulté à comprendre le fonctionnement interne des algorithmes (« effet de boîte noire »). Contrairement aux programmations informatiques classiques traduisant un modèle déductif, donc explicable, le cheminement aboutissant aux résultats de l'IA s'appuyant sur le deep learning reste aujourd'hui mal compris V. pour des exemples précis et détaillés, Assemblée de Liaison des notaires de France, L'intelligence artificielle : dangers ou opportunités pour le notariat, 2018, 69e session, p. 47 et s., § 231 et s. .
Si le cadre législatif européen est composé de nombreux textes abordant aussi bien la sécurité et la responsabilité des produits défectueux Cons. UE, dir. 85/374/CEE, 25 juill. 1985, relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux.?Rapport de la Commission au Parlement européen, au Conseil et au Comité économique et social européen sur l'application de la directive 85/374/CEE du Conseil relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (https://ec.europa.eu/transparency/regdoc/rep/1/2018/FR/COM-2018-246-F1-FR-MAIN-PART-1.PDF">Lien). que la protection des droits fondamentaux Charte des droits fondamentaux de l'Union européenne (www.europarl.europa.eu/charter/pdf/text_fr.pdf">Lien). , la Commission conclut à la nécessité de les améliorer https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf">Lien, p. 29 et 30. . En effet, le rapport précise que « même si les produits sont beaucoup plus complexes aujourd'hui qu'en 1985, la directive sur la responsabilité du fait des produits reste un instrument adapté ». En l'état actuel des textes, à l'instar du smart contract V. supra, no . , il n'est pas certain que l'IA et la blockchain puissent être qualifiées de « produit ». C'est pourquoi le rapport précise qu'il conviendra de « clarifier l'interprétation juridique de certains concepts de la directive (« produit », « producteur », « défaut » et « dommage » par exemple, ou la charge de la preuve) » pour les adapter aux spécificités des nouvelles technologies numériques. Elle propose une approche axée sur l'excellence et la confiance où la place de l'humain sera garantie et la robustesse et la précision de la technique assurées.
Si aujourd'hui les outils du monde numérique ne permettent pas un contrôle suffisamment efficace du contenu du contrat, l'essor de l'IA dans les années à venir devrait considérablement faire évoluer la situation. La sécurité juridique devrait s'en trouver renforcée.