Lors d’un événement de grande envergure, le responsable de la sécurité de l’intelligence artificielle chez Microsoft, Neta Haiby, a révélé de manière inattendue des informations confidentielles concernant les projets d’IA de Walmart. Ce faux pas s’est produit en plein milieu d’une protestation vive contre les relations de Microsoft avec le gouvernement israélien, mettant en lumière des messages internes sur l’utilisation des outils IA de la compagnie. Les incidents comme celui-ci soulèvent des questions cruciales sur la transparence, la sécurité des données et l’éthique dans le développement technologique.
Lors d’une présentation à Build, Neta Haiby, le responsable de la sécuité de l’IA de Microsoft, a accidentellement révélé des messages confidentiels concernant l’utilisation des outils d’IA par Walmart. La session a été perturbée par des manifestants, dont deux anciens employés de Microsoft, qui critiquaient l’implication de l’entreprise avec le gouvernement israélien. Malgré une tentative de mute et une redirection de la caméra, Haiby a ensuite involontairement partagé des informations internes sur la collaboration de Walmart avec Microsoft, notamment son exploitation prévue des services Entra et AI Gateway. Le contexte de l’intervention des manifestants fait écho aux tensions géopolitiques actuelles et aux critiques sur l’éthique des technologies de l’IA.
Le incident de Microsoft et Walmart
Lors d’une récente conférence Build, Neta Haiby, responsable de la sécurité de l’IA chez Microsoft, a involontairement révélé des informations confidentielles concernant les projets d’IA de Walmart. L’événement a été interrompu par des protestataires, ce qui a mené à une situation où les détails sur l’utilisation des outils d’IA par Walmart en collaboration avec Microsoft ont été exposés. Ce dérapage, survenu après l’expulsion des manifestants, soulève des questions sur la gestion de la sécu et sur les implications de l’utilisation des technologies d’IA dans un contexte sensible.
Contexte de la protestation
Les protestations qui ont eu lieu pendant la conférence étaient dirigées contre les contrats de Microsoft avec le gouvernement israélien. Hossam Nasr, un ancien employé de Microsoft, a exprimé son indignation face à l’apparente hypocrisie de l’entreprise en matière de responsabilité en IA. Selon lui, les projets de l’entreprise entravent la paix et alimentent les conflits. Ce cri de désespoir a pris de l’ampleur lors de la session qu’Haiby coanimait avec Sarah Bird, évoquant une tension palpable entre l’innovation technologique et la responsabilité sociétale.
Répercussions sur la sécurité de l’IA
Le message partiellement révélé suggère que Walmart se prépare à intégrer des services tels que Entra et AI Gateway de Microsoft pour renforcer ses capacités d’intelligence artificielle. Un ingénieur en IA de Walmart a même déclaré que Microsoft était exceptionnellement en avance par rapport à ses concurrents sur le plan de la sécurité de l’IA. Cela illustre non seulement le potentiel des technologies collaboratives, mais aussi les risques inhérents à la divulgation d’informations sensibles, attirant l’attention sur la nécessité d’un cadre éthique robuste pour le développement et l’utilisation de l’IA.