La superintelligence sûre est devenue un point central dans la communauté de l’IA, et avec le lancement de Safe Superintelligence Inc. (SSI) par Ilya Sutskever, la conversation a pris de nouvelles dimensions.
Sutskever, qui a cofondé OpenAI et en a été le scientifique en chef, a récemment quitté l’entreprise pour démarrer cette nouvelle entreprise, soulignant son dévouement au développement d’une IA qui non seulement améliore les capacités, mais maintient également des protocoles de sécurité stricts. Ce développement est important compte tenu de l’histoire et des contributions de Sutskever à l’IA, en particulier dans les domaines de la sécurité de l’IA et des systèmes superintelligents.
La société a expliqué les étapes à suivre pour développer l’IA dans un article publié sur X comme suit :
La superintelligence est à notre portée.
Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque.
Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre.
C’est ce qu’on appelle la superintelligence sûre…
– SSI Inc. (@ssi) 19 juin 2024
Le voyage de Sutskever vers une superintelligence sûre
Le parcours d’Ilya Sutskever dans l’industrie de l’IA a été marqué par des contributions remarquables et des étapes importantes. Il a cofondé OpenAI, un organisme de recherche de premier plan dont la mission est de garantir que l’intelligence artificielle générale (AGI) profite à l’ensemble de l’humanité. Au cours de son mandat chez OpenAI, Sutskever a joué un rôle crucial dans l’avancement de la sécurité de l’IA et le développement de systèmes superintelligents. Son travail aux côtés de Jan Leike au sein de l’équipe Superalignment d’OpenAI a mis en évidence son engagement à relever les défis posés par une IA de plus en plus puissante.
Le départ de Sutskever d’OpenAI est intervenu après des retombées dramatiques avec les dirigeants sur l’approche de la sécurité de l’IA. Ce moment charnière a conduit à la création de Safe Superintelligence Inc. (SSI), reflétant le dévouement inébranlable de Sutskever à la cause de la sécurité de l’IA. La nouvelle société, cofondée avec Daniel Gross et Daniel Levy, vise à s’attaquer en tandem à la sécurité et aux capacités de l’IA, en les traitant comme des problèmes techniques nécessitant une ingénierie révolutionnaire et des percées scientifiques.
Création du SSI
Safe Superintelligence Inc., ou SSI, constitue une démarche audacieuse dans le domaine de l’IA. La mission de l’entreprise est unique et ciblée : développer une superintelligence sûre. Sutskever, avec ses co-fondateurs Daniel Gross et Daniel Levy, a articulé une vision claire pour SSI. L’entreprise vise à éviter les distractions liées aux frais généraux de gestion et aux cycles de produits, en garantissant que la sûreté, la sécurité et le progrès sont à l’abri des pressions commerciales à court terme.
Les fondateurs de SSI apportent une richesse d’expérience et d’expertise. Daniel Gross, ancien responsable de l’IA chez Apple et entrepreneur et investisseur en démarrage, ajoute une valeur significative à l’équipe. Daniel Levy, connu pour son travail sur les grands modèles d’IA chez OpenAI, complète l’équipe par ses prouesses techniques. Ensemble, ils ont ouvert des bureaux à Palo Alto, en Californie, et à Tel Aviv, en Israël, reflétant leur engagement à attirer des talents techniques de haut niveau du monde entier.
Daniel Gross : à la tête de SSI

Daniel Gross, l’un des cofondateurs de SSI, a joué un rôle déterminant dans l’élaboration de l’orientation et de la philosophie de l’entreprise. Son expérience en IA, en particulier son mandat chez Apple et son expérience en tant qu’entrepreneur en démarrage, le positionne comme un acteur clé dans le parcours de SSI. Les connaissances et la vision stratégique de Gross sont cruciales alors que SSI évolue dans le paysage complexe de la sécurité et du développement des capacités de l’IA.
Gross a exprimé sa confiance dans la capacité de SSI à lever les capitaux nécessaires, soulignant que les contraintes financières n’entraveront pas leur mission. Cette assurance est significative, compte tenu des coûts élevés associés à la recherche et au développement avancés en matière d’IA. Le rôle de Gross chez SSI souligne l’approche collaborative et avant-gardiste qu’incarne l’entreprise.
Daniel Levy : l’espoir du SSI

Un autre membre à part entière de l’équipe fondatrice de SSI est Daniel Levy. La réputation de Levy pour la formation de grands modèles d’IA chez OpenAI a fait de lui une figure de proue de la recherche sur l’IA. Son expertise technique et sa profonde compréhension des systèmes d’IA sont des atouts inestimables pour SSI. L’implication de Levy souligne l’engagement de l’entreprise à repousser les limites de ce qui est possible en matière de sécurité et de capacité de l’IA.
Les contributions de Levy à SSI vont au-delà de ses compétences techniques. Son expérience de travail aux côtés de Sutskever chez OpenAI garantit une transition fluide alors qu’ils se lancent dans cette nouvelle entreprise. Le rôle de Levy chez SSI témoigne de l’esprit de collaboration qui anime la mission de l’entreprise visant à développer une superintelligence sûre.
Se concentrer sur l’avenir
Safe Superintelligence Inc. (SSI) est sur le point de faire des progrès significatifs dans l’industrie de l’IA. L’accent clairement mis par l’entreprise sur la sécurité et les capacités de l’IA la distingue des autres entités du secteur. En abordant ces défis comme des problèmes techniques pouvant être résolus grâce à une ingénierie révolutionnaire et à des percées scientifiques, SSI vise à prendre la tête de la création d’une superintelligence sûre.
La décision stratégique de l’entreprise d’éviter les distractions liées aux frais généraux de gestion et aux cycles de produits garantit que ses efforts restent concentrés sur sa mission principale. Les fondateurs de SSI, Ilya Sutskever, Daniel Gross et Daniel Levy, apportent à l’entreprise un mélange unique d’expertise, d’expérience et de vision. Leurs efforts combinés devraient aboutir à des avancées significatives dans le domaine de la sécurité de l’IA.
La route à suivre
Alors que SSI se lance dans son voyage, la communauté de l’IA suivra de près. L’approche de l’entreprise en matière de sécurité et de développement des capacités de l’IA reflète une compréhension approfondie des complexités et des défis impliqués. En se concentrant sur la superintelligence sûre, SSI vise à contribuer à l’avancement responsable de la technologie de l’IA.
La décision d’Ilya Sutskever de lancer SSI marque un nouveau chapitre dans son illustre carrière. Son engagement en faveur de la sécurité de l’IA, comme le démontrent ses travaux chez OpenAI et maintenant chez SSI, souligne l’importance de s’attaquer aux risques associés aux systèmes superintelligents. Avec une équipe solide et une mission claire, SSI est bien placé pour avoir un impact durable dans le domaine de la sécurité de l’IA.
Crédit image en vedette: SSI Inc./X