Par Wesley Armando, expert en SEO & journaliste d’investigation
OpenAI accusée de sacrifier ses valeurs initiales au profit de gains financiers. Entre quête de profit et choix éthiques contestables, la société est critiquée pour avoir dévié de sa mission d’origine. Sam Altman dans le collimateur : découvrez les dessous d’une transformation controversée.
Le commencement d’une vision
Depuis sa création en 2015, OpenAI a suscité l’espoir en prétendant développer une intelligence artificielle générale (AGI) qui bénéficie à toute l’humanité. L’entreprise, fondée avec la promesse d’éviter les biais commerciaux, a vu ses premiers pas financés par des personnalités telles qu’Elon Musk et Sam Altman, les deux cofondateurs partageaient à l’époque, une vision utopique : créer une IA sûre et accessible à tous. Mais des changements radicaux se sont produits à partir de 2019, semant la discorde parmi ses fondateurs et suscitant des inquiétudes croissantes au sein de la communauté scientifique et technologique.
L’origine de ces problèmes ? La transformation de cette entreprise d’une organisation à but non lucratif à une entité « capped-profit« , qui vise à attirer plus de financements extérieurs pour soutenir sa compétition avec des titans de la tech tels que Google ou Meta. Mais aujourd’hui, ce virage s’accompagne de graves accusations, notamment celles de Musk, du « parrain de l’IA » Geoffrey Hinton, et de Josh Olin, qui reprochent tous à OpenAI d’avoir été dévoyée de ses objectifs initiaux.
La recherche du profit semble avoir supplanté les idéaux d’équité et de sécurité pour tous. Cet article décortique en profondeur les événements qui ont conduit la startup : initialement une ONG technologique, à évoluer d’un projet ambitieux de bien commun à un acteur controversé, en quête de profit.
Le virage lucratif de OpenAI : que s’est-il passé ?
En 2019, OpenAI avait alors lancé a une entité « capped-profit« , présentée comme nécessaire pour attirer de nouveaux financements afin d’étendre les capacités de recherche et rester à la pointe de l’innovation en IA. Cette entité permettait de réaliser des profits jusqu’à un certain seuil, les excédents devant être réinvestis dans les objectifs de l’organisation. Toutefois, cette décision a suscité un séisme éthique au sein de la communauté scientifique. Elon Musk, cofondateur de la startup, a vivement critiqué cette transformation, affirmant qu’elle allait à l’encontre des principes fondateurs.
« Le profit ne devait jamais déterminer la direction de l’organisation », a rappelé Musk sur les réseaux sociaux. En mars 2024, il a même intenté un procès contre OpenAI pour avoir été détournée de sa mission de bénéfice pour l’humanité au profit de gains financiers, affirmant que l’éthique avait été compromise. Selon des sources internes, des investisseurs comme Thrive Capital, Nvidia, SoftBank, et Microsoft ont demandé une transformation en société à but lucratif pour s’assurer des retours financiers, certains menaçant de retirer leurs fonds si cette condition n’était pas respectée dans un délai de deux ans.
Cette pression financière a transformé cette organisation à but non lucratif en une entité bien différente de l’organisation collaborative initiale. Cette transition a marqué la sortie d’éminents chercheurs tels que Ilya Sutskever et Mira Murati, qui ont été remplacés par des figures orientées vers la recherche de profits plutôt que vers une IA sûre et éthique.
Les conflits internes : l’éthique mise à mal
Geoffrey Hinton, souvent surnommé « le parrain de l’IA », a également manifesté son mécontentement quant à la direction d’OpenAI. Selon lui, l’accent mis par Sam Altman sur le profit met en péril la sécurité de l’IA, une sécurité qui devait rester au cœur de la mission de l’organisation. Hinton n’a pas hésité à critiquer publiquement Altman, affirmant que l’abandon de l’éthique en faveur des profits entraîne des risques croissants pour l’humanité, allant même jusqu’à parler de manipulation future de la population par des IA développées sans surveillance suffisante.
« OpenAI a délaissé sa mission initiale de bien commun, et c’est une menace réelle pour l’avenir de l’IA », avait déclaré Hinton lors d’une conférence de presse en octobre 2023. Ces divisions éthiques ont également été évoquées récemment par Josh Olin, qui a accusé la société de pratiques criminelles et de manque de transparence, pointant du doigt des comportements qui n’étaient clairement pas conformes aux objectifs de sécurité et d’équité.
Olin, ancien développeur de jeux vidéo, également créateur du célèbre ‘Web request‘ à l’époque des plugins, du GPT ‘WebGPT‘ et aussi ‘WeGPT.ai‘ et bien d’autres projets, a publié des preuves sur X (anciennement Twitter) d’une mauvaise gestion interne et de pressions exercées par les investisseurs sur l’équipe d’OpenAI.
Les chiffres qui parlent d’eux-mêmes : le poids des financements
La startup a levé environ 6,6 milliards de dollars lors du dernier tour de financement mené par Thrive Capital, Microsoft, Nvidia, SoftBank et Ark Investment Management, portant la valorisation d’OpenAI à 157 milliards de dollars. Des sommes faramineuses, mais aussi une pression immense sur les épaules de l’organisation, qui se retrouve aujourd’hui avec des investisseurs exigeant des retours rapides et maximaux.
Ce financement massif a été justifié par Altman pour soutenir la croissance de l’infrastructure de calcul et accélérer le développement de modèles plus avancés, mais il est également accompagné de craintes concernant les répercussions éthiques de ces investissements. Goldman Sachs a rapporté que l’IA représente une bulle potentielle, semblable à la bulle internet des années 2000, où les promesses n’ont pas encore été tenues et où les retours pour les entreprises restent limités malgré les investissements colossaux.
Avancées techniques récentes : coûts des nouveaux modèles GPT-4o1 Preview et Mini
Les nouveaux modèles GPT-4o et GPT-o1 Preview ont été lancés en 2024, avec une volonté d’améliorer les capacités tout en réduisant les coûts d’utilisation pour une adoption plus large. Voici quelques détails importants concernant ces modèles :
- GPT-4o : Lancé en Mai 2024, ce modèle offre des capacités de vision et de génération vocale avancées, accessibles via une tarification modérée ou gratuite afin de favoriser l’adoption par le grand public.
- GPT-4o1 Preview : Ce modèle lancé en été 2024, conçu pour gérer des tâches complexes, est proposé à un coût de 0,10 à 0,20 $ par millier de tokens. Cela reflète sa capacité à traiter des analyses complexes et des stratégies de haut niveau.
- GPT-4o1 Mini : Version allégée du modèle Preview lancé au même moment que le modèle o1 Preview, avec un coût environ 80 % inférieur, soit 0,02 à 0,04 $ par millier de tokens. Cette version est plus adaptée pour des utilisateurs individuels ou des PME qui souhaitent bénéficier d’une IA puissante à un tarif plus accessible.
- Canvas : Cette nouvelle fonctionnalité est lancée en parallèle avec les derniers modèles en octobre 2024. Elle permet une collaboration directe et en temps réel avec l’IA, simplifiant la création de contenu, l’édition, et l’organisation des idées.
Détails des coûts et nouvelles fonctionnalités des modèles
L’évolution des coûts des modèles GPT-4o, GPT-4o Mini, GPT-4o1 Preview, GPT-4o1 Mini, et Canvas montre un investissement croissant, reflétant les améliorations technologiques et les fonctionnalités ajoutées.
Modèle | Année | Coût (en millions $) | Disponibilité |
---|---|---|---|
GPT-4o | 2024 | 250 | Commercial |
GPT-4o Mini | 2024 | 120 | Commercial |
GPT-4o1 Preview | 2024 | 0,10 – 0,20 $/1000 tokens | Accès restreint |
GPT-4o1 Mini | 2024 | 0,02 – 0,04 $/1000 tokens | Commercial |
Canvas | 2024 | Incluse | Collaborations IA |
Critiques liées aux coûts : Le coût élevé de ces nouveaux modèles a suscité des controverses. Alors que GPT-4o est conçu pour offrir plus de capacités, certains experts estiment que le prix reste prohibitif pour les petites entreprises ou pour des utilisateurs sans moyens financiers conséquents. Cette question d’accessibilité pose un débat éthique, aligné avec les autres critiques formulées envers OpenAI quant à ses objectifs de profit.
L’impact sur les politiques publiques : une IA hors de contrôle ?
L‘influence croissante de cette société pose également des questions sur l’impact de ces choix financiers sur les politiques publiques. Initialement conçue comme un modèle de transparence et de collaboration ouverte, OpenAI se retrouve aujourd’hui sous le feu des critiques concernant son influence sur les gouvernements et la réglementation de l’IA. La pression exercée par les investisseurs pour transformer celle-ci en société lucrative a poussé la firme à réorienter ses efforts sur des projets plus rentables et à réduire la part de ses recherches partagées publiquement.
En tant qu’entité désormais en partenariat étroit avec Microsoft, la startup pourrait avoir une influence directe sur la définition des normes réglementaires et sur les politiques de sécurité à travers le monde, en particulier dans des pays en pleine structuration de leur cadre législatif concernant l’IA.
Plusieurs experts, tels que Cathy O’Neil, auteur de « Weapons of Math Destruction », ont également mis en garde contre les dérives potentielles où les acteurs privés dictent l’usage de technologies essentielles sans contre-pouvoir suffisant de la part des entités publiques.
Un futur en suspend
Ce qui avait commencé comme un effort dédié au bien commun est maintenant critiqué comme étant une quête de pouvoir et de profit, laissant en suspens la question de la sécurité et de la transparence des technologies d’IA. Les critiques de Musk, Hinton, Olin (et maintenant ‘Wesley‘) ne sont pas simplement des différences d’opinion : elles révèlent une lutte sous-jacente entre l’éthique et les profits, entre la recherche de la vérité et le besoin de rentabilité.
Le changement de cap d’OpenAI soulève des questions fondamentales sur la façon dont la technologie doit être développée et partagée. Si cette trajectoire continue, qu’adviendra-t-il de la mission initiale de rendre l’IA bénéfique pour tous ? L’histoire d’OpenAI est-elle en train de devenir un avertissement pour les autres entreprises de technologie qui pourraient suivre la même route ?
La question se pose : comment devons-nous nous positionner face à une IA qui pourrait potentiellement être dévoyée par des intérêts commerciaux ?
A voir aussi OpenAI annonce la levée de 6,6 milliards de dollars supplémentaires et OpenAI : des dépenses et des pertes colossales avant de trouver la rentabilité
Pour plus de sujets sur le même thème :
- Elon Musk accusé de harcèlement par OpenAI
- OpenAI continue de brûler beaucoup de cash
- OpenAI : sa colossale levée de fonds ne cache pas l’éléphant dans la pièce
- Malgré le buzz, OpenAI perd toujours énormément d’argent
- L’AGI : Une Évolution Inévitable ou le Prochain Skynet ?
- John Hopfield, Prix Nobel de physique pour ses recherches sur l’intelligence artificielle, met en garde contre les récentes avancées « très inquiétantes » de l’IA
FAQ
1. Pourquoi Elon Musk a-t-il intenté un procès contre OpenAI ?
Elon Musk a intenté un procès contre OpenAI parce que la société a été détournée de sa mission initiale de bien commun pour se concentrer sur le profit, selon lui. Musk a été un des fondateurs de la firme et estime que le passage à un modèle lucratif va à l’encontre des engagements éthiques pris en 2015.
2. Qui sont les principaux investisseurs actuels d’OpenAI ?
Les principaux investisseurs incluent Microsoft, Thrive Capital, Nvidia, SoftBank, et Ark Investment Management. Ces investisseurs ont également la possibilité de retirer leurs fonds si OpenAI ne devient pas une entreprise à but lucratif dans les deux prochaines années.
3. Quels sont les risques éthiques liés à la transformation d’OpenAI en entité lucrative ?
La transformation d’OpenAI en entité lucrative peut compromettre la sécurité de l’IA, réduire la transparence, et limiter l’accès aux technologies d’IA pour les communautés moins desservies. Des experts craignent que cela ne conduise à une érosion des objectifs éthiques.
4. Comment Geoffrey Hinton a-t-il critiqué OpenAI ?
Geoffrey Hinton a critiqué la priorité donnée aux profits par Sam Altman, mettant en garde contre les conséquences potentielles sur la sécurité de l’IA et la manipulation des masses. Il estime que ces choix vont à l’encontre de l’objectif initial de bien commun.
5. Quel avenir pour OpenAI et la technologie IA ?
L’avenir d’OpenAI est incertain, car les tensions entre la rentabilité et l’éthique continuent de croître. Si la trajectoire actuelle persiste, les défis seront de maintenir la sécurité et l’accessibilité de l’IA tout en étant sous pression pour produire des profits significatifs pour ses investisseurs.
A bientôt pour un nouveaux voyage à travers l’espace, la science et l’information ←
Laisser un commentaire