IA et sécurité des données

Le monde évolue rapidement, la sécurité aussi !

Les progrès technologiques permettent aux personnes d'interagir et de se connecter avec n'importe qui, n'importe où et n'importe quand. La mondialisation s'accélère, d'une telle manière qu'aujourd'hui les pays, les peuples et les cultures sont de plus en plus connectés qu'avant.

Parmi ces avancées technologiques, l'intelligence artificielle révolutionne les choses de manière spectaculaire. L'Organisation mondiale de la propriété intellectuelle indique une triple augmentation du nombre de brevets enregistrés sur l'IA entre 2013 et 2017. Selon les données de Bloomberg Law, le nombre des brevets passe de 3 267 en 2017 à 18 753 en 2021. On parle tout de même d'une multiplication par six !

Cette croissance significative des brevets entraîne une explosion de produits, d'applications et de technologies basés sur l'IA. Ces derniers finissent par transformer notre vie quotidienne et l'interaction homme-machine. Le plus surprenant n'est pas l'IA en tant que telle ! Après tout, elle existe depuis des décennies, mais l'évolution actuelle qui est extrêmement rapide.

Un outil trop puissant ?

Une estimation de Forbes montre que l'IA a contribué à hauteur de 2 000 milliards de dollars au PIB mondial en 2018. Elle constitue la plus grande perspective commerciale de l'économie en évolution rapide d'aujourd'hui. On estime même qu'elle pourrait atteindre 15 700 milliards de dollars d'ici 2030.

Un outil d'IA très récent, le processeur de langage naturel (NLP) ChatGPT a dépassé 1 million d'utilisateurs en seulement 5 jours après son lancement. En janvier 2023, il y avait déjà plus de 100 millions d'utilisateurs et 1,6 milliard de visites en mars 2023. Cet évènement suscite des inquiétudes généralisées en matière de sécurité, confidentialité, propriété intellectuelle et menaces juridiques.

L'Intelligence Artificielle améliore déjà la vie des humains cependant elle inquiète également concernant les dangers potentiels d'un comportement inattendu. Ainsi, l'idée d'alignement est essentielle pour garantir que l'IA est conforme aux valeurs humaines, à l'éthique et à la sécurité.

Examiné par OpenAI sur cet aspect nocif, ChatGPT a été capable de proposer des solutions illégales voir dangereuses. Suivant ce résultat, de nombreux ajustements ont été mis en place avec le lancement public de l'outil. Cependant, il est encore difficile d'identifier tous les abus potentiels. Après tout, ces systèmes qui se basent sur le "machine learning" continuent d'apprendre sans cesse.

Jack Clark, le fondateur d'Anthropic (entreprise spécialisée dans la sécurité de l'IA) , prévient des capacités et risques inattendus de chaque IA. Ces derniers deviennent également de plus en plus impossibles à prévoir. Les procédures fondamentales utilisées pour construire ces systèmes sont bien établies et sécurisent leur utilisation. Cependant d'autres organisations, nations, instituts de recherche et acteurs indélicats peuvent ne pas prendre les mêmes précautions.

L'IA est présente dans tout ce qui nous entoure, elle améliore notre qualité de vie au quotidien. Dans le monde des affaires, elle aide également les entreprises à rester compétitives.

Statista chiffre l'investissement dans l'intelligence artificielle à plus de 93,5 milliards de dollars en 2021. Ce chiffre a été multiplié environ par 8 depuis 2015. Ainsi, l'IA a déjà commencé son voyage et seuls les changements spectaculaires captent notre attention de temps en temps.

La puissance des intelligences artificielles a largement été démontrée, en particulier dans le contexte commercial. Les systèmes d'IA peuvent offrir alors plus de réponses qu'il n'y avait de questions au départ. Les capacités informatiques massives réduisent le temps traitement des données. C'est de cette manière que l'on peut découvrir de nouvelles réponses à tout sujet potentiel sans même y avoir pensé !

Adapter la sécurité d'un monde en évolution

L'expansion de l'IA incite davantage d'entreprises à l'adopter et à l'utiliser à grande échelle sans garantir l'exactitude des résultats. Même si les individus et les organisations peuvent ces technologies librement, ils sont néanmoins tenus de suivre ces développements. Ils doivent aussi faire un effort pour équilibrer leurs évolutions en termes de sécurité, confidentialité, propriété intellectuelle et préoccupations juridiques.

L'un des plus grands sujets de l'IA reste la cybersécurité et la sécurité des données qui deviennent une lourde responsabilité. Mais qui en sera responsable exactement ? Ces systèmes ont été créés pour traiter et générer des bases de données plus immenses que jamais. Cela conduit alors à une plus grande complexité environnementale qui, à son tour, augmente le risque.

Il est évident que des risques distincts augmentent à mesure que quelque chose devient plus complexe. Cela peut apporter une opacité pour les défenseurs de la sécurité. Cependant, Charlie Bell, vice-président de la sécurité chez Microsoft, nous rappelle : "l'IA permettra aux défenseurs de voir, de catégoriser et d'interpréter beaucoup plus de données et plus rapidement que jamais, ce qui n'aurait peut-être même pas été possible avec de grandes équipes d'experts en sécurité à ce jour".

Selon une étude de l'ISC, 3,5 millions de travailleurs de la cybersécurité supplémentaires sont aujourd'hui nécessaires pour sécuriser les actifs. Il s'agit là une bonne nouvelle pour les spécialistes de la cybersécurité ! Les développements de l'IA peuvent ainsi offrir des opportunités d'emploi, ou même une meilleure gestion de la cybersécurité.

Les limites de la cybersécurité

Pour autant, "La cybersécurité et la confidentialité ne suffisent pas ! Ce dont nous avons besoin, c'est de la confiance et d'un cadre défini sur une approche basée sur les risques." affirme Pamela Gupta, PDG de Trusted AI, une société OutSecure Inc.

Il devient ainsi important de renforcer la confiance et la transparence dans l'intelligence artificielle pour les entreprises. C'est le cas notamment lorsque celle-ci prend des décisions majeures pour les industries et établit les règles. Cette confiance repose sur la sécurité et la confidentialité des données traitées par le système. Il est important de noter que l'analyse des risques est également au cœur de la cybersécurité.

Pour faire une évaluation des risques, nous devons d'abord prendre en compte les opérations commerciales environnementales. On établit ensuite un modèle de menace lancer une analyse des risques existants. Suite à cela, on recherche leur origine et on cherche à comprendre ce qui est nécessaire pour gérer ces risques.

Pamela Gupta, stratège en cybersécurité, décrit les piliers fondamentaux d'une IA comme étant la sécurité, la confidentialité, l'éthique et la transparence. En plus de ces piliers, elle en ajoute d'autres, nécessaires pour régir les choses qui examinent la fondation. Ceux-ci sont les règlements d'explicabilité, l'audit et la vérifiabilité ainsi que la responsabilité.

La faille humaine

Nous parlons souvent de gestion de la sécurité des données lorsqu'il s'agit de cybersécurité dans l'IA. Pourtant la cybersécurité va au-delà du simple empoisonnement des données.

Pour atteindre l'approche par piliers, il est indispensable de comprendre comment ces systèmes d'IA fonctionnent et sont construits. Ces systèmes fonctionnent à travers les formations et données qui leur sont fournies. C'est de là que peut venir un éventuel biais, vous devez leur fournir des données correctes et précises. Si vous alimentez votre IA avec des données biaisées, c'est un élément qui peut mal tourner. De plus, nous savons tous qu'il existe des données erronées accessibles au public qui peuvent être extraites et formées, pas nécessairement de manière précise et évaluée.

 Il convient également de noter que même les ensembles d'apprentissage créés par des algorithmes peuvent également avoir des biais dans leurs opérations. Comme indiqué précédemment dans le cas de l'évaluation de ChatGPT avant de dérailler complètement, il est toujours difficile de découvrir tous les détournements potentiels de ces systèmes d'IA appris par machine, qui ne sont qu'un sous-ensemble de l'IA.

Une nouvelle ère a débuté

L'ère de l'IA, de la sécurité dans le monde et des données est suffisamment large pour être approfondie et examinée indéfiniment, mais une réalité demeure que nous sommes tous profondément impliqués dans cette période en évolution rapide, que nous en tant qu'individus, entreprises et communauté en soyons ravis ou pas.

Le secteur du credit management n'a pas fait exception face à ces immenses développements.

Chez My DSO Manager, bien que nous ayons toujours pour objectif de rester à l'écoute de toutes les nouvelles évolutions technologiques, nous avons toujours pris des précautions de mise en œuvre au sommet de nos nouvelles évolutions, qu'elles soient liées à l'automatisation de l'IA, à la collecte de données d'analyse des créances commerciales ou simplement à l'optimisation des algorithmes.

Nous pensons que notre expertise en gestion des risques à long terme nous offre une opportunité de tirer parti de cette période en évolution rapide pour mieux entreprendre de tels cadres d'évaluation des risques commerciaux tout en utilisant des solutions basées sur l'IA.