
Le monde devient plus petit ; Allons-nous nous sentir plus en sécurité ?!
Les progrès technologiques permettent aux personnes d'interagir et de se connecter avec n'importe qui, n'importe où et n'importe quand. La mondialisation s'accélère, d'une telle manière qu'aujourd'hui les pays, les peuples et les cultures sont de plus en plus connectés qu'avant. Parmi ces avancées technologiques, l'intelligence artificielle révolutionne les choses de manière spectaculaire, l'Organisation mondiale de la propriété intellectuelle indique une triple augmentation du nombre de brevets enregistrés sur l'IA entre 2013 et 2017, selon la base de données mondiale sur les brevets de Bloomberg Law, le nombre de brevets liés à l'IA est passé de 3 267 en 2017 à 18 753 en 2021, soit une multiplication par six ! Cette croissance significative des brevets peut entraîner une explosion de produits, d'applications et de technologies basés sur l'IA qui finissent par transformer notre vie quotidienne et l'interaction homme-machine. Le plus surprenant n'est pas l'IA en tant que telle qui existe depuis des décennies, mais l'évolution actuelle qui est extrêmement rapide.Voulons-nous vraiment que l'IA atteigne ce niveau de puissance ?

Existe-t-il un moyen d'empêcher que cela se produise ?

La "cyber-insécurité" dans un monde qui se rétrécit !
L'expansion de l'IA incite davantage d'entreprises à l'adopter, à sauter sur l'autoroute de l'IA et à commencer à utiliser les produits à grande échelle sans garantir l'exactitude des résultats. Même si les individus et les organisations peuvent ou non utiliser ces technologies à leurs propres risques, ils sont néanmoins tenus de suivre ces développements et doivent faire un effort pour ajuster ou plutôt équilibrer leurs évolutions en termes de sécurité, de confidentialité, de propriété intellectuelle et de préoccupations juridiques. Notamment, la sécurité est est l'un des sujets des plus concernés par les systèmes d'IA, et parallèlement à cela, la sécurité des données devient une lourde responsabilité. Mais qui sera en charge de la sécurité de ces données exactement ? Étant donné que ces systèmes sont des transformateurs géants et génèrent des données plus immenses que jamais, cela conduit à une plus grande complexité environnementale qui, à son tour, augmente le risque. Il est évident que des risques distincts augmentent à mesure que quelque chose devient plus complexe. Cela peut apporter une opacité pour les défenseurs de la sécurité, mais en paraphrasant Charlie Bell, vice-président de la sécurité chez Microsoft, "l'IA permettra aux défenseurs de voir, de catégoriser et d'interpréter beaucoup plus de données et plus rapidement que jamais, ce qui n'aurait peut-être même pas été possible avec de grandes équipes d'experts en sécurité à ce jour".Cependant, selon une étude sur la main-d'œuvre menée par (ISC)2, avec une estimation de 5 millions de professionnels de la sécurité dans le monde, certaines études indiquent que 3,5 millions de travailleurs de la cybersécurité supplémentaires sont nécessaires pour sécuriser efficacement les actifs. Bien que ce soit au moins une bonne nouvelle pour les spécialistes de la cybersécurité, les développements de l'IA peuvent les soutenir dans les deux sens, soit par des opportunités d'emploi, soit par l'extraction de stock d'IA pour une meilleure gestion de la sécurité, mais la cybersécurité sera-t-elle suffisante pour protéger les résultats de l'IA ?
"La cybersécurité et la confidentialité ne suffisent pas ! Ce dont nous avons besoin, c'est de la confiance et d'un cadre défini sur une approche basée sur les risques." affirme Pamela Gupta, PDG de Trusted AI, une société OutSecure Inc.
Lorsque l'intelligence artificielle va prendre des décisions plus importantes pour les industries et que ces décisions établiront les règles, pour en tirer la bonne valeur, renforcer la confiance et la transparence dans l'IA devient crucial pour les entreprises.
La confiance repose sur la sécurité et la confidentialité, mais il est important de noter que l'analyse des risques est également au cœur de la cybersécurité.
Pour faire une évaluation des risques, nous devons d'abord percevoir les opérations commerciales environnementales, puis établir un modèle de menace pour déterminer quels sont les risques, d'où viennent-ils et comprendre ce qui est nécessaire pour gérer ces risques.
Pamela Gupta, la stratège en cybersécurité, décrit les piliers fondamentaux d'une IA digne de confiance, comme la sécurité, la confidentialité, l'éthique et la transparence, mais en plus de ces piliers, elle en ajoute d'autres nécessaires pour régir les choses qui examinent la fondation, qui sont des règlements d'explicabilité, l'audit et la vérifiabilité ainsi que la responsabilité.
Nous parlons souvent de sécurité des données lorsqu'il s'agit de cybersécurité dans l'IA et la cybersécurité va au-delà du simple empoisonnement des données.
Pour atteindre l'approche par piliers, il est indispensable de comprendre comment ces systèmes d'IA fonctionnent et sont construits. En tant que vue explicite, ces systèmes fonctionnent à travers des ensembles de formation et des données qui leur sont fournies, d'où vient le biais, car vous devez leur fournir des données correctes et précises. Si vous les alimentez avec des données biaisées, c'est un élément qui peut mal tourner. De plus, nous savons tous qu'il existe des données erronées accessibles au public qui peuvent être extraites et formées, pas nécessairement de manière précise et évaluée.
Il convient également de noter que même les ensembles d'apprentissage créés par des algorithmes peuvent également avoir des biais dans leurs opérations. Comme indiqué précédemment dans le cas de l'évaluation de ChatGPT avant de dérailler complètement, il est toujours difficile de découvrir tous les détournements potentiels de ces systèmes d'IA appris par machine, qui ne sont qu'un sous-ensemble de l'IA.
Pour conclure : L'ère de l'IA, de la sécurité et des données est suffisamment large pour être approfondie et examinée indéfiniment, mais une réalité demeure que nous sommes tous profondément impliqués dans cette période en évolution rapide, que nous en tant qu'individus, entreprises et communauté en soyons ravis ou pas.
Le secteur du credit management n'a pas fait exception face à ces immenses développements.
Chez My DSO Manager, bien que nous ayons toujours pour objectif de rester à l'écoute de toutes les nouvelles évolutions technologiques, nous avons toujours pris des précautions de mise en œuvre au sommet de nos nouvelles évolutions, qu'elles soient liées à l'automatisation de l'IA, à la collecte de données d'analyse des créances commerciales ou simplement à l'optimisation des algorithmes.
Nous pensons que notre expertise en gestion des risques à long terme nous offre une opportunité de tirer parti de cette période en évolution rapide pour mieux entreprendre de tels cadres d'évaluation des risques commerciaux tout en utilisant des solutions basées sur l'IA.