Aller au contenu
Accueil » Microsoft : une IA générative mais pas responsable ?

Microsoft : une IA générative mais pas responsable ?

Microsoft met fin à son équipe « éthique et société » dédiée à l’intelligence artificielle responsable, malgré son engagement à concevoir des produits et expériences en IA de manière sûre à l’utilisation.

Une équipe pour l’IA « responsable » débauchée

L’équipe qui s’occupait de l’éthique et de la sécurité de l’IA était vraiment cruciale pour que les nouvelles technologies soient développées de manière responsable, mais malheureusement, Microsoft a dû réduire l’équipe à seulement sept personnes avant de la dissoudre en mars. C’est vraiment dommage, car cela laisse un grand vide dans les opérations de l’entreprise.

Mais Microsoft avait quand même augmenté le nombre de personnes en charge de faire respecter les principes de l’IA responsable au cours des six dernières années. Cependant, certains membres de l’équipe « éthique » ont indiqué aux journalistes que leur rôle principal était de traduire les principes de Microsoft en des règles faciles à suivre pour les développeurs. Ils se concentraient également sur l’identification des risques liés à l’utilisation de ChatGPT et d’autres outils créés par OpenAI. C’était vraiment important pour éviter les conséquences désastreuses de l’utilisation de l’IA sans prendre les précautions nécessaires.

Tester notre Intelligence artificielle gratuite et en français 

Est-ce vraiment le bon moment ?

L’équipe qui s’occupait de la responsabilité de l’IA chez Microsoft a été dissoute alors que la boîte se lance à fond dans l’IA générative pour ses produits comme Bing, Azure, Office et Teams. Ils veulent aller plus vite que leurs concurrents grâce à leur lien étroit avec OpenAI, dans laquelle ils ont mis plusieurs milliards de dollars. Cependant, certains experts ont des craintes sur les risques sans cette équipe qui s’occupait de la responsabilité de l’IA.

L’IA de Snapchat n’est pas encore au point

En gros, c’est hyper important que l’IA soit développée éthiquement et responsablement et que son utilisation soit conforme aux valeurs de la boîte. La dissolution de l’équipe soulève donc des questions sur ce que Microsoft va faire pour assurer la sécurité et l’éthique de l’utilisation de l’IA générative dans ses produits et services à l’avenir. Mais il ne faut pas croire que Microsoft abandonne l’IA responsable, le Bureau pour l’intelligence responsable continue de poser les principes pour toutes les équipes de dev.

C’est juste une question de timing car y a une pression de malade pour sortir les outils d’OpenAI à la vitesse de la lumière. Bref, faut trouver l’équilibre parfait entre l’innovation et la responsabilité pour éviter les impacts négatifs sur la société et garantir un avenir durable pour l’IA.

Nous sommes aussi sur twitter, suivez-nous 😉

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *