OpenAI, la boîte qui a enflammé la toile avec son chatbot ChatGPT, a dévoilé sa dernière merveille : GPT-4. Ce dernier avatar de l’IA générative est une nouvelle avancée en direction de l’intelligence humaine et qui sera optimisé afin de minimiser les risques de cybersécurité.
GPT-4 : une nouvelle ère pour la recherche en ligne grâce à l’intégration dans Bing
Microsoft, qui a injecté des milliards de dollars dans la start-up OpenAI, continue de pousser l’innovation en annonçant l’intégration de GPT-4 à Bing, son moteur de recherche. Cette avancée permettra aux utilisateurs de Bing de bénéficier de la puissance de cette innovation, un modèle multimédia capable d’égaler les performances humaines dans de nombreux contextes professionnels et académiques.
Selon OpenAI, GPT-4 est un outil exceptionnel pour la créativité et la collaboration, offrant une capacité inédite pour la rédaction de dissertations, la programmation de lignes de code, la création de scénarios, ainsi que pour une multitude d’autres utilisations. Cependant, l’enthousiasme pour ChatGPT, n’a pas été sans controverse, certains craignant que l’utilisation généralisée de ces technologies puisse avoir des conséquences imprévues. Néanmoins, les deux géants restent confiants quant à l’impact positif de GPT-4 sur la communauté scientifique et le grand public.
L’objectif d’OpenAI : créer une intelligence humaine robotisée plus avancée que celle de l’homme
Grâce à ses programmes de génération de texte et d’images tels que DALL-E, OpenAI s’est établi comme leader de l’IA générative. Cependant, avec GPT-4, l’entreprise franchit une nouvelle étape en direction de l’intelligence humaine, dite « générale ». Selon Sam Altman, le CEO de l’entreprise, l’objectif de l’IA générale est de créer des systèmes capables de rivaliser avec les capacités cognitives humaines, voire de les dépasser. « Plus intelligents que les humains en général », tels sont les mots utilisés par Sam Altman pour décrire les capacités que pourrait atteindre l’intelligence humaine robotisée.
La mémoire : l’un des failles majeures de l’outil
Sur le blog de l’entreprise, le 24 février dernier, il a affirmé que la mission de la firme américaine est de s’assurer que cette intelligence humaine robotisée soit bénéfique pour toute l’humanité. Cependant, malgré les progrès accomplis par GPT-4 en termes de capacités multimédia, le modèle manque encore d’une capacité clé : la mémoire. Pour l’instant, l’outil est formé sur des données s’arrêtant en septembre 2021 et ne peut pas apprendre de manière continue de ses expériences, explique OpenAI.
Selon les experts, ChatGPT serait capable de postuler à Stanford avec sa nouvelle version
OpenAI s’est félicité de la performance de ChatGPT dans le milieu académique. En effet, la start-up a affirmé que son programme avait réussi l’examen pour devenir avocat avec un score aussi bon que les meilleurs 10% des candidats. Comparé à GPT 3.5, la version précédente du programme, GPT-4 est au niveau des 10% les plus performants, selon l’entreprise. Ces résultats ont fait l’objet de nombreux éloges sur les réseaux sociaux. Jim Fan, un spécialiste du raisonnement artificiel passé par Google et OpenAI, et désormais chez Nvidia, a même tweeté que GPT-4 pouvait désormais postuler pour étudier à Stanford, une université américaine de renom. Selon lui, la capacité de raisonnement de ce est « du jamais vu ! ».
La société mère du chatbod intelligent reconnaît les limites de sa technologie
Toutefois, certains spécialistes ont lancé des alertes contre l’engouement disproportionné, rappelant que malgré ses performances fascinantes, la technologie n’est pas sans limites. Robert Vesoul, fondateur de l’entreprise française Illuin Technology, a expliqué que l’algorithme allait gagner en puissance et que ce n’était pas la révolution du siècle. Il poursuit que ce n’était pas comme si on était passé de la Lune à Mars. Il est vrai que malgré les avancées notables de GPT-4, il présente encore des limites similaires aux modèles précédents. Comme l’a reconnu son entreprise mère, cette dernière innovation du célèbre robot conversationnel n’est pas encore totalement fiable et peut encore « halluciner », inventer des choses et faire des erreurs de logique.
L’IA générative en passe de révolutionner de nombreux secteurs…
La course à l’IA générative est de plus en plus intense depuis que ChatGPT a suscité un engouement international. Des mastodontes comme Microsoft et Google ont intégré des outils de création automatisée sur leurs plateformes et services en ligne, avec parfois des erreurs et des hallucinations des machines. Mais les avantages de l’IA générative sont évidents. Morgan Stanley, par exemple, a annoncé qu’elle allait utiliser GPT-4 pour permettre à ses employés d’accéder instantanément à toutes les connaissances de la personne la plus qualifiée en gestion de fortune. D’autres entreprises, comme Khan Academy et Stripe, envisagent également de faire appel aux fonctionnalités de cette version.
… mais constitue une menace pour de multiples métiers
Cette progression rapide de l’IA générative est source de craintes chez de nombreux métiers intellectuels et créatifs. Beaucoup craignent que les chatbots et les algorithmes automatisés ne finissent par les remplacer dans leur travail, les reléguant au simple rôle de gestionnaires de machines. En effet, l’IA générative est capable de produire des textes, des images et même des vidéos de qualité, ce qui pourrait avoir des conséquences majeures pour les industries de l’écriture, de la publicité, du cinéma, de la musique et bien d’autres encore.
Une opportunité pour améliorer la cybersécurité ?
L’utilisation croissante de technologies comme ChatGPT a suscité des préoccupations quant à leur potentiel d’utilisation à des fins néfastes. Les progrès de l’IA générative pourraient en effet avoir des conséquences imprévues, notamment en termes de cybersécurité. Pour anticiper ces risques, OpenAI a engagé plus de 50 experts chargés d’évaluer les menaces potentielles, en plus des risques déjà identifiés tels que la production de conseils dangereux ou la diffusion de fausses informations.
Ces analyses permettront d’optimiser le modèle et de limiter les risques pour la sécurité. La société américaine a par exemple récolté des données supplémentaires pour s’assurer que GPT-4 refuse les requêtes d’utilisateurs portant sur la fabrication de produits chimiques dangereux. Malgré ces précautions, de nombreux observateurs s’inquiètent des conséquences que pourraient avoir ces technologies sur la sécurité en ligne.
Avec ETX / DailyUp