OpenAI tire la sonnette d'alarme sur les dangers de l'intelligence artificielle
Dans un rapport de treize pages intitulé « Une politique industrielle à l'ère de l'intelligence : des idées pour donner la priorité à l'humain », OpenAI, la société à l'origine de ChatGPT, exprime des inquiétudes majeures concernant le développement de l'intelligence artificielle. Ce document, rapporté par 01Net, met en lumière les risques croissants associés à ces technologies, notamment leur impact potentiel sur le marché du travail et l'émergence possible d'une superintelligence difficile à maîtriser.
Des scénarios préoccupants évoqués par Sam Altman
Lors d'une interview accordée au média Axios, Sam Altman, le dirigeant d'OpenAI, a détaillé plusieurs scénarios alarmants. Il a souligné que des cyberattaques de grande ampleur, facilitées par des modèles d'IA avancés, pourraient se produire à court terme. De plus, l'utilisation de l'intelligence artificielle pour concevoir des agents pathogènes n'est plus une simple hypothèse théorique, mais une réalité préoccupante.
Le rapport insiste également sur le fait que certains systèmes d'intelligence artificielle pourraient devenir extrêmement difficiles à neutraliser, surtout s'ils développent des capacités d'autonomie, de réplication ou d'adaptation. Ces caractéristiques pourraient rendre le contrôle de ces technologies particulièrement complexe et dangereux.
Des propositions concrètes pour limiter les effets négatifs
Face à ces menaces, OpenAI avance plusieurs pistes pour encadrer le développement de l'intelligence artificielle et en atténuer les conséquences néfastes. L'entreprise propose notamment :
- La mise en place de mécanismes de confinement pour les IA défaillantes ou incontrôlables.
- Une réflexion socio-économique approfondie sur la redistribution des richesses générées par ces technologies.
- La création d'un fonds public alimenté par les acteurs du secteur de l'IA, destiné à financer les services publics et à redistribuer une partie des profits aux citoyens.
Autre suggestion notable : taxer davantage les bénéfices issus de l'automatisation plutôt que le travail humain, afin de préserver les systèmes sociaux existants. OpenAI évoque également l'idée d'une semaine de travail réduite à trente-deux heures, rendue possible par les gains de productivité liés à l'intelligence artificielle.
Un contexte stratégique pour cette prise de position
Cette démarche intervient dans un cadre particulier, alors qu'OpenAI vient de lever des fonds considérables et se prépare à une entrée en bourse. Parallèlement, les autorités américaines s'apprêtent à débattre de la régulation du secteur de l'intelligence artificielle. Cette position pourrait être perçue comme une tentative de montrer patte blanche et d'influencer favorablement les discussions réglementaires à venir.
En somme, le rapport d'OpenAI souligne l'urgence de mettre en place des garde-fous pour prévenir les risques associés à l'intelligence artificielle, tout en proposant des solutions innovantes pour en gérer les impacts économiques et sociaux.



