IA et sécurité des données

Le monde devient plus petit ; Allons-nous nous sentir plus en sécurité ?!

Les progrès technologiques permettent aux personnes d'interagir et de se connecter avec n'importe qui, n'importe où et n'importe quand. La mondialisation s'accélère, d'une telle manière qu'aujourd'hui les pays, les peuples et les cultures sont de plus en plus connectés qu'avant.

Parmi ces avancées technologiques, l'intelligence artificielle révolutionne les choses de manière spectaculaire, l'Organisation mondiale de la propriété intellectuelle indique une triple augmentation du nombre de brevets enregistrés sur l'IA entre 2013 et 2017, selon la base de données mondiale sur les brevets de Bloomberg Law, le nombre de brevets liés à l'IA est passé de 3 267 en 2017 à 18 753 en 2021, soit une multiplication par six ! Cette croissance significative des brevets peut entraîner une explosion de produits, d'applications et de technologies basés sur l'IA qui finissent par transformer notre vie quotidienne et l'interaction homme-machine. Le plus surprenant n'est pas l'IA en tant que telle qui existe depuis des décennies, mais l'évolution actuelle qui est extrêmement rapide.

Voulons-nous vraiment que l'IA atteigne ce niveau de puissance ?

Pour répondre à cette question, nous pouvons nous référer à une estimation de Forbes qui montre que l'IA, en tant que plus grande perspective commerciale de l'économie en évolution rapide d'aujourd'hui, a contribué à hauteur de 2 000 milliards de dollars au PIB mondial en 2018 et pourrait atteindre 15 700 milliards de dollars d'ici 2030.

Un outil d'IA très récent, le processeur de langage naturel (NLP) appris par machine appelée ChatGPT a dépassé 1 million d'utilisateurs en seulement 5 jours, plus de 100 millions d'utilisateurs en janvier et 1,6 milliard de visites en mars 2023, ce qui suscite des inquiétudes généralisées en matière de sécurité, confidentialité, la propriété intellectuelle et les menaces juridiques.

Les promoteurs de l'IA pensent que cela améliorera la vie des gens, tandis que d'autres s'inquiètent des dangers d'un comportement inattendu. Cependant, l'idée d'alignement est essentielle pour garantir que l'IA est conforme aux valeurs humaines, à l'éthique et à la sécurité. Lorsque GPT-4 a été examiné pour des applications nuisibles par OpenAI, il a été découvert qu'il pourrait proposer d'acquérir des armes illégales ou de produire des substances dangereuses. Malgré les ajustements avant le lancement public, il est encore difficile d'identifier tous les abus potentiels car ces systèmes qui se basent sur le "machine learning" continuent d'apprendre sans cesse.

Jack Clark, le fondateur d'Anthropic , prévient que chaque nouveau système d'IA introduit des capacités inattendues et des risques de sécurité qui deviennent de plus en plus impossibles à prévoir. Les procédures fondamentales utilisées pour construire ces systèmes sont bien établies, mais d'autres organisations, nations, instituts de recherche et acteurs voyous peuvent ne pas prendre les mêmes précautions.

Existe-t-il un moyen d'empêcher que cela se produise ?

Toute personne physique ou morale essaie de tirer parti de l'IA, que ce soit pour améliorer nos processus de vie ou simplement pour rester compétitif dans le monde des affaires. Comme preuve à ce sujet, Statista chiffre que l'investissement dans l'intelligence artificielle a atteint 93,5 milliards de dollars en 2021, multiplié environ par 8 depuis 2015, donc comme mentionné précédemment, l'IA a déjà commencé son voyage et il n'y a que les changements spectaculaires qui attrapent notre attention de temps en temps.

Il semble que cela n'ait pas de sens de le remettre en cause, en particulier dans le contexte commercial, lorsque les systèmes d'IA peuvent offrir plus de réponses que ce qu'on a de questions au départ. Les capacités informatiques massives du traitement des données progressent au point où l'on peut découvrir de nouvelles réponses à tout sujet potentiel qui n'avait auparavant aucune question associée !

La "cyber-insécurité" dans un monde qui se rétrécit !

L'expansion de l'IA incite davantage d'entreprises à l'adopter, à sauter sur l'autoroute de l'IA et à commencer à utiliser les produits à grande échelle sans garantir l'exactitude des résultats. Même si les individus et les organisations peuvent ou non utiliser ces technologies à leurs propres risques, ils sont néanmoins tenus de suivre ces développements et doivent faire un effort pour ajuster ou plutôt équilibrer leurs évolutions en termes de sécurité, de confidentialité, de propriété intellectuelle et de préoccupations juridiques.

Notamment, la sécurité est est l'un des sujets des plus concernés par les systèmes d'IA, et parallèlement à cela, la sécurité des données devient une lourde responsabilité. Mais qui sera en charge de la sécurité de ces données exactement ? Étant donné que ces systèmes sont des transformateurs géants et génèrent des données plus immenses que jamais, cela conduit à une plus grande complexité environnementale qui, à son tour, augmente le risque.

Il est évident que des risques distincts augmentent à mesure que quelque chose devient plus complexe. Cela peut apporter une opacité pour les défenseurs de la sécurité, mais en paraphrasant Charlie Bell, vice-président de la sécurité chez Microsoft, "l'IA permettra aux défenseurs de voir, de catégoriser et d'interpréter beaucoup plus de données et plus rapidement que jamais, ce qui n'aurait peut-être même pas été possible avec de grandes équipes d'experts en sécurité à ce jour".

Cependant, selon une étude sur la main-d'œuvre menée par (ISC)2, avec une estimation de 5 millions de professionnels de la sécurité dans le monde, certaines études indiquent que 3,5 millions de travailleurs de la cybersécurité supplémentaires sont nécessaires pour sécuriser efficacement les actifs. Bien que ce soit au moins une bonne nouvelle pour les spécialistes de la cybersécurité, les développements de l'IA peuvent les soutenir dans les deux sens, soit par des opportunités d'emploi, soit par l'extraction de stock d'IA pour une meilleure gestion de la sécurité, mais la cybersécurité sera-t-elle suffisante pour protéger les résultats de l'IA ?

"La cybersécurité et la confidentialité ne suffisent pas ! Ce dont nous avons besoin, c'est de la confiance et d'un cadre défini sur une approche basée sur les risques." affirme Pamela Gupta, PDG de Trusted AI, une société OutSecure Inc.
Lorsque l'intelligence artificielle va prendre des décisions plus importantes pour les industries et que ces décisions établiront les règles, pour en tirer la bonne valeur, renforcer la confiance et la transparence dans l'IA devient crucial pour les entreprises.

La confiance repose sur la sécurité et la confidentialité, mais il est important de noter que l'analyse des risques est également au cœur de la cybersécurité.

Pour faire une évaluation des risques, nous devons d'abord percevoir les opérations commerciales environnementales, puis établir un modèle de menace pour déterminer quels sont les risques, d'où viennent-ils et comprendre ce qui est nécessaire pour gérer ces risques.

Pamela Gupta, la stratège en cybersécurité, décrit les piliers fondamentaux d'une IA digne de confiance, comme la sécurité, la confidentialité, l'éthique et la transparence, mais en plus de ces piliers, elle en ajoute d'autres nécessaires pour régir les choses qui examinent la fondation, qui sont des règlements d'explicabilité, l'audit et la vérifiabilité ainsi que la responsabilité.

Nous parlons souvent de sécurité des données lorsqu'il s'agit de cybersécurité dans l'IA et la cybersécurité va au-delà du simple empoisonnement des données.
Pour atteindre l'approche par piliers, il est indispensable de comprendre comment ces systèmes d'IA fonctionnent et sont construits. En tant que vue explicite, ces systèmes fonctionnent à travers des ensembles de formation et des données qui leur sont fournies, d'où vient le biais, car vous devez leur fournir des données correctes et précises. Si vous les alimentez avec des données biaisées, c'est un élément qui peut mal tourner. De plus, nous savons tous qu'il existe des données erronées accessibles au public qui peuvent être extraites et formées, pas nécessairement de manière précise et évaluée.

Il convient également de noter que même les ensembles d'apprentissage créés par des algorithmes peuvent également avoir des biais dans leurs opérations. Comme indiqué précédemment dans le cas de l'évaluation de ChatGPT avant de dérailler complètement, il est toujours difficile de découvrir tous les détournements potentiels de ces systèmes d'IA appris par machine, qui ne sont qu'un sous-ensemble de l'IA.

Pour conclure : L'ère de l'IA, de la sécurité et des données est suffisamment large pour être approfondie et examinée indéfiniment, mais une réalité demeure que nous sommes tous profondément impliqués dans cette période en évolution rapide, que nous en tant qu'individus, entreprises et communauté en soyons ravis ou pas.
Le secteur du credit management n'a pas fait exception face à ces immenses développements.

Chez My DSO Manager, bien que nous ayons toujours pour objectif de rester à l'écoute de toutes les nouvelles évolutions technologiques, nous avons toujours pris des précautions de mise en œuvre au sommet de nos nouvelles évolutions, qu'elles soient liées à l'automatisation de l'IA, à la collecte de données d'analyse des créances commerciales ou simplement à l'optimisation des algorithmes.
Nous pensons que notre expertise en gestion des risques à long terme nous offre une opportunité de tirer parti de cette période en évolution rapide pour mieux entreprendre de tels cadres d'évaluation des risques commerciaux tout en utilisant des solutions basées sur l'IA.