Openai prévoit de introduire Une exigence d’identification vérifiée pour les organisations d’accéder à certains futurs modèles d’IA via son API, selon une page d’assistance publiée sur le site Web de la société la semaine dernière. Le nouveau processus de vérification, appelé vérification vérifiée, vise à assurer une utilisation sûre de ses modèles d’IA avancés.
Le processus de vérification nécessite une pièce d’identité émise par le gouvernement de l’un des pays soutenus par l’API d’Openai. Une pièce d’identité ne peut vérifier qu’une seule organisation tous les 90 jours, et toutes les organisations ne seront pas éligibles à la vérification. OpenAI a déclaré qu’il prenait sa responsabilité au sérieux pour s’assurer que l’IA est à la fois largement accessible et utilisée en toute sécurité.
«À OpenAI, nous prenons notre responsabilité au sérieux pour nous assurer que l’IA est à la fois largement accessible et utilisée en toute sécurité», lit la page. «Malheureusement, une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de nos politiques d’utilisation. Nous ajoutons le processus de vérification pour atténuer l’utilisation dangereuse de l’IA tout en continuant à mettre des modèles avancés à la disposition de la communauté des développeurs plus large.»
Cette décision est probablement destinée à améliorer la sécurité des produits d’Openai à mesure qu’ils deviennent plus sophistiqués. La société a publié des rapports sur ses efforts pour détecter et atténuer l’utilisation malveillante de ses modèles, y compris par des groupes qui prétendument basés en Corée du Nord. Il peut également viser à prévenir le vol IP, à la suite d’une enquête sur un incident potentiel d’exfiltration de données impliquant un groupe lié à la Chine En profondeur AI Lab.
Openai a pris précédente mesures Pour restreindre l’accès à ses services, y compris le blocage de l’accès en Chine l’été dernier. Le statut d’organisation vérifié devrait être prêt pour la prochaine version du modèle de l’entreprise.
Comme l’a expliqué OpenAI, «Malheureusement, une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de nos politiques d’utilisation. Nous ajoutons le processus de vérification pour atténuer l’utilisation dangereuse de l’IA tout en continuant à mettre des modèles avancés à la disposition de la communauté des développeurs plus large.»