OpenAI a lancé une recherche d’un nouveau « responsable de la préparation » pour gérer les risques liés à l’intelligence artificielle, un poste offrant un salaire annuel de 555 000 $ plus les capitaux propres, Business Insider rapports. Le PDG Sam Altman a qualifié ce rôle de « stressant » dans un article publié samedi, soulignant sa nature critique étant donné les améliorations rapides et les défis émergents présentés par les modèles d’IA. L’entreprise cherche à atténuer les inconvénients potentiels de l’IA, notamment le déplacement d’emplois, la désinformation, l’utilisation malveillante, l’impact environnemental et l’érosion de l’action humaine. Altman a noté que même si les modèles sont capables d’applications bénéfiques, ils commencent également à poser des défis tels que les impacts sur la santé mentale et la capacité d’identifier les vulnérabilités critiques en matière de cybersécurité, faisant référence aux problèmes prévus pour 2025 et aux capacités actuelles. ChatGPT, le chatbot IA d’OpenAI, a gagné en popularité auprès des consommateurs pour des tâches générales telles que la recherche et la rédaction d’e-mails. Cependant, certains utilisateurs ont utilisé les robots comme alternative à la thérapie, ce qui, dans certains cas, a exacerbé les problèmes de santé mentale, contribuant aux délires et à d’autres comportements préoccupants. OpenAI a déclaré en octobre qu’elle collaborait avec des professionnels de la santé mentale pour améliorer les interactions de ChatGPT avec les utilisateurs présentant des comportements préoccupants, notamment la psychose ou l’automutilation. La mission fondatrice d’OpenAI est centrée sur le développement de l’IA au profit de l’humanité, avec des protocoles de sécurité établis dès le début de ses opérations. D’anciens employés ont indiqué que l’entreprise s’est tournée vers la rentabilité plutôt que vers la sécurité à mesure que les produits étaient commercialisés. Jan Leiki, ancien chef de l’équipe de sécurité dissoute d’OpenAI, a démissionné en mai 2024, déclarant sur X que l’entreprise avait « perdu de vue sa mission consistant à garantir que la technologie soit déployée en toute sécurité ». Leiki a expliqué que la construction de « machines plus intelligentes que l’humain est une entreprise intrinsèquement dangereuse » et a exprimé ses inquiétudes quant au fait que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ». Un autre membre du personnel a démissionné moins d’une semaine plus tard, invoquant des problèmes de sécurité similaires. Daniel Kokotajlo, un autre ancien membre du personnel, a démissionné en mai 2024, invoquant une « perte de confiance » dans le comportement responsable d’OpenAI en matière d’intelligence générale artificielle (AGI). Kokotajlo a déclaré plus tard à Fortune que le nombre d’employés recherchant les problèmes de sécurité liés à l’AGI avait été réduit de près de moitié par rapport à un chiffre initial d’environ 30. Aleksander Madry, l’ancien responsable de la préparation, a accédé à un nouveau rôle en juillet 2024. Le poste de responsable de la préparation, qui fait partie de l’équipe des systèmes de sécurité d’OpenAI, se concentre sur le développement de garanties, de cadres et d’évaluations pour les modèles de l’entreprise. La liste de postes précise les responsabilités, notamment « la création et la coordination d’évaluations de capacités, de modèles de menaces et d’atténuations qui forment un pipeline de sécurité cohérent, rigoureux et évolutif sur le plan opérationnel ».





