Selon une étude de l’université de Stanford, les modèles d’intelligence artificielle utilisés pour de nombreuses applications seraient peu transparents et posent un risque pour la sécurité. Un indice de transparence de l’IA a été calculé pour une dizaine de langages, dont GPT-4 et Llama 2. Aucun n’atteint le score souhaitable de 80%.
Transparence de l’IA : Llama 2 en tête, mais loin du compte, selon une analyse
Selon un récent indice élaboré et calculé par des chercheurs de l’université californienne, une évaluation de la transparence de l’IA a mis en lumière que parmi une dizaine de systèmes étudiés, c’est le modèle Llama 2, développé par Meta en juillet et offert en open source, qui se démarque. Cependant, malgré cette distinction, il n’obtient qu’un score de 54%, une note qui reste en deçà des attentes des chercheurs.
Parmi les modèles évalués, même GPT-4, le fleuron d’OpenAI, la société soutenue par Microsoft, qui est également à l’origine du célèbre robot ChatGPT, n’a obtenu qu’un score de transparence de l’IA 48%. Cette étude met en évidence le défi continu que représente l’atteinte d’une notation optimale, soulignant l’importance croissante de la recherche et du développement pour améliorer la compréhension et l’accessibilité de ces technologies.
L’étude démontre que les scores restent inférieurs
Une récente étude sur la transparence de l’IA révèle que même les langages en vogue, tels que Palm-2 de Google et Claude 2 d’Anthropic (soutenue par Amazon), affichent des scores inférieurs. Ces résultats suscitent des préoccupations quant à la clarté et à la compréhensibilité des technologies d’intelligence artificielle actuelles.
Selon le directeur de la recherche sur les modèles de « fondation » à Stanford, Rishi Bommasani, le niveau de transparence de l’IA minimale est compris entre 80% et 100%. Cette déclaration souligne l’importance croissante de la clarté dans le développement du raisonnement artificiel et met en évidence le besoin de progrès substantiels pour garantir que ces technologies soient accessibles et compréhensibles pour un public plus large.
Le score, un atout pour permettre aux entreprises de comprendre les modèles d’intelligence artificielle
Le manque de transparence de l’IA pose des défis majeurs pour les entreprises, les chercheurs et les consommateurs. Le score de transparence joue un rôle essentiel en mettant en évidence les lacunes langages. Pour les entreprises, cette opacité rend difficile la création sécurisée d’applications basées sur ces modèles, car elles ne peuvent pas pleinement évaluer leur fonctionnement. Les chercheurs, de leur côté, se voient limités dans l’utilisation de ces langages pour leurs recherches en raison du manque de compréhension. Enfin, les consommateurs sont confrontés à des difficultés pour comprendre les limites des langages d’intelligence artificielle et réclamer réparation en cas de préjudices. La nécessité d’améliorer la transparence de l’IA devient ainsi cruciale pour en garantir une utilisation responsable.
Les failles de sécurité des technologies pointées du doigt
Le manque de transparence de l’IA soulève des questions essentielles liées à la sécurité et à la gouvernance. L’analyse de Stanford souligne des pratiques opaques prévalant dans l’industrie de l’intelligence artificielle, avec des conséquences potentiellement graves.
Plus précisément, il est inquiétant de constater que la plupart des entreprises ne dévoilent pas l’étendue des contenus protégés par des droits d’auteur qu’elles utilisent pour entraîner leurs modèles d’IA. Cette omission peut entraîner des litiges juridiques et compromettre la légalité de ces langages, soulevant des préoccupations importantes en matière de sécurité.
Le raisonnement artificiel peu transparent : un frein pour les applications éthiques et responsables
De plus, l’étude révèle que les entreprises ne divulguent pas l’usage de travail humain pour corriger les données d’entraînement. Cette pratique, courante pour améliorer les performances des langages d’intelligence artificielle, soulève des questions éthiques et de confidentialité. L’absence de transparence de l’IA entrave la compréhension de la manière dont les modèles ont été améliorés, créant des préoccupations en matière de gouvernance.
En outre, les entreprises ne fournissent aucune information sur le nombre d’utilisateurs dépendant de leurs modèles ni sur les pays ou marchés où ces langages sont utilisés. Cette opacité entrave la surveillance de l’impact de cette technologie sur la société et rend difficile la prévention d’éventuels abus.
Les auteurs de l’étude estiment que cet indice de transparence de l’IA pourrait être utilisé à l’avenir par les décideurs politiques et les régulateurs. L’Union européenne, les États-Unis, la Chine, le Royaume-Uni et le Canada ont exprimé leur volonté de promouvoir une intelligence artificielle plus transparente. Ces résultats soulignent l’importance croissante de réglementations plus strictes pour améliorer la sécurité et la transparence dans l’IA.
Les intelligences artificielles : entre opportunités et défis pour la société moderne
L’intelligence artificielle suscite à la fois des attentes énormes en termes d’opportunités et des préoccupations majeures liées à la société, à l’économie et à la sécurité nationale, comme l’a souligné le président américain Joe Biden lors de ses déclarations devant les acteurs clés de l’industrie en juillet. Cette question cruciale a également été au cœur des discussions lors du G7 au Japon en mai, et elle devrait continuer à occuper le devant de la scène internationale. En effet, la Grande-Bretagne se prépare à accueillir en novembre un sommet international consacré à l’intelligence artificielle, mettant en lumière l’importance croissante de la transparence de l’IA et de la réglementation dans le développement de cette technologie innovante.
Découvrez les derniers rapports d’étude en matière de high-tech en vous rendant sur le site d’information vidéo Veedz.
Avec ETX / DailyUp