OpenAI : Le visage caché de l’IA – Quand la poursuite du profit menace l’éthique

Par Wesley Armando, expert en SEO & journaliste d’investigation

OpenAI : des dépenses et des pertes colossales avant de trouver la rentabilité

OpenAI accusée de sacrifier ses valeurs initiales au profit de gains financiers. Entre quête de profit et choix éthiques contestables, la société est critiquée pour avoir dévié de sa mission d’origine. Sam Altman dans le collimateur : découvrez les dessous d’une transformation controversée.

Version Audio

Le commencement d’une vision

Depuis sa création en 2015, OpenAI a suscité l’espoir en prétendant développer une intelligence artificielle générale (AGI) qui bénéficie à toute l’humanité. L’entreprise, fondée avec la promesse d’éviter les biais commerciaux, a vu ses premiers pas financés par des personnalités telles qu’Elon Musk et Sam Altman, les deux cofondateurs partageaient à l’époque, une vision utopique : créer une IA sûre et accessible à tous. Mais des changements radicaux se sont produits à partir de 2019, semant la discorde parmi ses fondateurs et suscitant des inquiétudes croissantes au sein de la communauté scientifique et technologique.

L’origine de ces problèmes ? La transformation de cette entreprise d’une organisation à but non lucratif à une entité « capped-profit« , qui vise à attirer plus de financements extérieurs pour soutenir sa compétition avec des titans de la tech tels que Google ou Meta. Mais aujourd’hui, ce virage s’accompagne de graves accusations, notamment celles de Musk, du « parrain de l’IA » Geoffrey Hinton, et de Josh Olin, qui reprochent tous à OpenAI d’avoir été dévoyée de ses objectifs initiaux.

La recherche du profit semble avoir supplanté les idéaux d’équité et de sécurité pour tous. Cet article décortique en profondeur les événements qui ont conduit la startup : initialement une ONG technologique, à évoluer d’un projet ambitieux de bien commun à un acteur controversé, en quête de profit.

OpenAI annonce la levée de 6,6 milliards de dollars supplémentaires

Le virage lucratif de OpenAI : que s’est-il passé ?

En 2019, OpenAI avait alors lancé a une entité « capped-profit« , présentée comme nécessaire pour attirer de nouveaux financements afin d’étendre les capacités de recherche et rester à la pointe de l’innovation en IA. Cette entité permettait de réaliser des profits jusqu’à un certain seuil, les excédents devant être réinvestis dans les objectifs de l’organisation. Toutefois, cette décision a suscité un séisme éthique au sein de la communauté scientifique. Elon Musk, cofondateur de la startup, a vivement critiqué cette transformation, affirmant qu’elle allait à l’encontre des principes fondateurs.

« Le profit ne devait jamais déterminer la direction de l’organisation », a rappelé Musk sur les réseaux sociaux. En mars 2024, il a même intenté un procès contre OpenAI pour avoir été détournée de sa mission de bénéfice pour l’humanité au profit de gains financiers, affirmant que l’éthique avait été compromise. Selon des sources internes, des investisseurs comme Thrive Capital, Nvidia, SoftBank, et Microsoft ont demandé une transformation en société à but lucratif pour s’assurer des retours financiers, certains menaçant de retirer leurs fonds si cette condition n’était pas respectée dans un délai de deux ans.

Cette pression financière a transformé cette organisation à but non lucratif en une entité bien différente de l’organisation collaborative initiale. Cette transition a marqué la sortie d’éminents chercheurs tels que Ilya Sutskever et Mira Murati, qui ont été remplacés par des figures orientées vers la recherche de profits plutôt que vers une IA sûre et éthique.

OpenAI continue de brûler beaucoup de cash

Les conflits internes : l’éthique mise à mal

Geoffrey Hinton, souvent surnommé « le parrain de l’IA », a également manifesté son mécontentement quant à la direction d’OpenAI. Selon lui, l’accent mis par Sam Altman sur le profit met en péril la sécurité de l’IA, une sécurité qui devait rester au cœur de la mission de l’organisation. Hinton n’a pas hésité à critiquer publiquement Altman, affirmant que l’abandon de l’éthique en faveur des profits entraîne des risques croissants pour l’humanité, allant même jusqu’à parler de manipulation future de la population par des IA développées sans surveillance suffisante.

« OpenAI a délaissé sa mission initiale de bien commun, et c’est une menace réelle pour l’avenir de l’IA », avait déclaré Hinton lors d’une conférence de presse en octobre 2023. Ces divisions éthiques ont également été évoquées récemment par Josh Olin, qui a accusé la société de pratiques criminelles et de manque de transparence, pointant du doigt des comportements qui n’étaient clairement pas conformes aux objectifs de sécurité et d’équité.

Olin, ancien développeur de jeux vidéo, également créateur du célèbre ‘Web request‘ à l’époque des plugins, du GPT ‘WebGPT‘ et aussi ‘WeGPT.ai‘ et bien d’autres projets, a publié des preuves sur X (anciennement Twitter) d’une mauvaise gestion interne et de pressions exercées par les investisseurs sur l’équipe d’OpenAI.

Malgré le buzz, OpenAI perd toujours énormément d’argent

Les chiffres qui parlent d’eux-mêmes : le poids des financements

La startup a levé environ 6,6 milliards de dollars lors du dernier tour de financement mené par Thrive Capital, Microsoft, Nvidia, SoftBank et Ark Investment Management, portant la valorisation d’OpenAI à 157 milliards de dollars. Des sommes faramineuses, mais aussi une pression immense sur les épaules de l’organisation, qui se retrouve aujourd’hui avec des investisseurs exigeant des retours rapides et maximaux.

Ce financement massif a été justifié par Altman pour soutenir la croissance de l’infrastructure de calcul et accélérer le développement de modèles plus avancés, mais il est également accompagné de craintes concernant les répercussions éthiques de ces investissements. Goldman Sachs a rapporté que l’IA représente une bulle potentielle, semblable à la bulle internet des années 2000, où les promesses n’ont pas encore été tenues et où les retours pour les entreprises restent limités malgré les investissements colossaux.

Avancées techniques récentes : coûts des nouveaux modèles GPT-4o1 Preview et Mini

Les nouveaux modèles GPT-4o et GPT-o1 Preview ont été lancés en 2024, avec une volonté d’améliorer les capacités tout en réduisant les coûts d’utilisation pour une adoption plus large. Voici quelques détails importants concernant ces modèles :

  • GPT-4o : Lancé en Mai 2024, ce modèle offre des capacités de vision et de génération vocale avancées, accessibles via une tarification modérée ou gratuite afin de favoriser l’adoption par le grand public.
  • GPT-4o1 Preview : Ce modèle lancé en été 2024, conçu pour gérer des tâches complexes, est proposé à un coût de 0,10 à 0,20 $ par millier de tokens. Cela reflète sa capacité à traiter des analyses complexes et des stratégies de haut niveau.
  • GPT-4o1 Mini : Version allégée du modèle Preview lancé au même moment que le modèle o1 Preview, avec un coût environ 80 % inférieur, soit 0,02 à 0,04 $ par millier de tokens. Cette version est plus adaptée pour des utilisateurs individuels ou des PME qui souhaitent bénéficier d’une IA puissante à un tarif plus accessible.
  • Canvas : Cette nouvelle fonctionnalité est lancée en parallèle avec les derniers modèles en octobre 2024. Elle permet une collaboration directe et en temps réel avec l’IA, simplifiant la création de contenu, l’édition, et l’organisation des idées.

Détails des coûts et nouvelles fonctionnalités des modèles

L’évolution des coûts des modèles GPT-4o, GPT-4o Mini, GPT-4o1 Preview, GPT-4o1 Mini, et Canvas montre un investissement croissant, reflétant les améliorations technologiques et les fonctionnalités ajoutées.

ModèleAnnéeCoût (en millions $)Disponibilité
GPT-4o2024250Commercial
GPT-4o Mini2024120Commercial
GPT-4o1 Preview20240,10 – 0,20 $/1000 tokensAccès restreint
GPT-4o1 Mini20240,02 – 0,04 $/1000 tokensCommercial
Canvas2024IncluseCollaborations IA

Critiques liées aux coûts : Le coût élevé de ces nouveaux modèles a suscité des controverses. Alors que GPT-4o est conçu pour offrir plus de capacités, certains experts estiment que le prix reste prohibitif pour les petites entreprises ou pour des utilisateurs sans moyens financiers conséquents. Cette question d’accessibilité pose un débat éthique, aligné avec les autres critiques formulées envers OpenAI quant à ses objectifs de profit.

OpenAI : sa colossale levée de fonds ne cache pas l’éléphant dans la pièce

L’impact sur les politiques publiques : une IA hors de contrôle ?

L‘influence croissante de cette société pose également des questions sur l’impact de ces choix financiers sur les politiques publiques. Initialement conçue comme un modèle de transparence et de collaboration ouverte, OpenAI se retrouve aujourd’hui sous le feu des critiques concernant son influence sur les gouvernements et la réglementation de l’IA. La pression exercée par les investisseurs pour transformer celle-ci en société lucrative a poussé la firme à réorienter ses efforts sur des projets plus rentables et à réduire la part de ses recherches partagées publiquement.

En tant qu’entité désormais en partenariat étroit avec Microsoft, la startup pourrait avoir une influence directe sur la définition des normes réglementaires et sur les politiques de sécurité à travers le monde, en particulier dans des pays en pleine structuration de leur cadre législatif concernant l’IA.

Plusieurs experts, tels que Cathy O’Neil, auteur de « Weapons of Math Destruction », ont également mis en garde contre les dérives potentielles où les acteurs privés dictent l’usage de technologies essentielles sans contre-pouvoir suffisant de la part des entités publiques.

L’AGI : Une Évolution Inévitable ou le Prochain Skynet ?

Un futur en suspend

Ce qui avait commencé comme un effort dédié au bien commun est maintenant critiqué comme étant une quête de pouvoir et de profit, laissant en suspens la question de la sécurité et de la transparence des technologies d’IA. Les critiques de Musk, Hinton, Olin (et maintenant ‘Wesley‘) ne sont pas simplement des différences d’opinion : elles révèlent une lutte sous-jacente entre l’éthique et les profits, entre la recherche de la vérité et le besoin de rentabilité.

Le changement de cap d’OpenAI soulève des questions fondamentales sur la façon dont la technologie doit être développée et partagée. Si cette trajectoire continue, qu’adviendra-t-il de la mission initiale de rendre l’IA bénéfique pour tous ? L’histoire d’OpenAI est-elle en train de devenir un avertissement pour les autres entreprises de technologie qui pourraient suivre la même route ?

La question se pose : comment devons-nous nous positionner face à une IA qui pourrait potentiellement être dévoyée par des intérêts commerciaux ?

A voir aussi OpenAI annonce la levée de 6,6 milliards de dollars supplémentaires et OpenAI : des dépenses et des pertes colossales avant de trouver la rentabilité

Pour plus de sujets sur le même thème :

OpenAI (ChatGPT) se sent harcelée par Elon Musk : le feuilleton reprend

FAQ

1. Pourquoi Elon Musk a-t-il intenté un procès contre OpenAI ?

Elon Musk a intenté un procès contre OpenAI parce que la société a été détournée de sa mission initiale de bien commun pour se concentrer sur le profit, selon lui. Musk a été un des fondateurs de la firme et estime que le passage à un modèle lucratif va à l’encontre des engagements éthiques pris en 2015.

2. Qui sont les principaux investisseurs actuels d’OpenAI ?

Les principaux investisseurs incluent Microsoft, Thrive Capital, Nvidia, SoftBank, et Ark Investment Management. Ces investisseurs ont également la possibilité de retirer leurs fonds si OpenAI ne devient pas une entreprise à but lucratif dans les deux prochaines années.

3. Quels sont les risques éthiques liés à la transformation d’OpenAI en entité lucrative ?

La transformation d’OpenAI en entité lucrative peut compromettre la sécurité de l’IA, réduire la transparence, et limiter l’accès aux technologies d’IA pour les communautés moins desservies. Des experts craignent que cela ne conduise à une érosion des objectifs éthiques.

4. Comment Geoffrey Hinton a-t-il critiqué OpenAI ?

Geoffrey Hinton a critiqué la priorité donnée aux profits par Sam Altman, mettant en garde contre les conséquences potentielles sur la sécurité de l’IA et la manipulation des masses. Il estime que ces choix vont à l’encontre de l’objectif initial de bien commun.

5. Quel avenir pour OpenAI et la technologie IA ?

L’avenir d’OpenAI est incertain, car les tensions entre la rentabilité et l’éthique continuent de croître. Si la trajectoire actuelle persiste, les défis seront de maintenir la sécurité et l’accessibilité de l’IA tout en étant sous pression pour produire des profits significatifs pour ses investisseurs.

A bientôt pour un nouveaux voyage à travers l’espace, la science et l’information ←