For faster navigation, this Iframe is preloading the Wikiwand page for Center for AI Safety.

Center for AI Safety

Center for AI Safety
Histoire
Fondation
Cadre
Sigle
(en) CAISVoir et modifier les données sur Wikidata
Type
Forme juridique
Domaines d'activité
Siège
Pays
Organisation
Président
Site web

Le Center for AI Safety (signifiant « Centre pour la sûreté de l'IA »), ou CAIS, est une organisation à but non lucratif basée à San Francisco qui promeut la sécurité dans le développement et le déploiement de l'intelligence artificielle (IA). Les activités de CAIS en sûreté de l'IA incluent de la recherche technique, des plaidoyers et du support pour la croissance de ce champ de recherche[1],[2].

En mai 2023, CAIS a publié une déclaration affirmant que l'IA représente un risque d'extinction humaine. Celle-ci a été signée par des chercheurs, personnalités publiques et dirigeants de grandes entreprises du domaine de l'IA[3],[4].

En 2023, le 1er sommet mondial sur la sécurité de l’IA (Bletchley Park, Londres, 2023) a été lancé par le gouvernement britannique.

En 2024, suite à ce sommet, un accord entre le gouvernement Biden et le gouvernement de Rishi Sunak, prévoit que la nouvelle Agence britannique AI Safety Institute (qui devrait bénéficier de 100 millions de livres, soit 117 millions d’euros) va coopérer avec les USA, qui annoncent 10 millions de dollars (9,3 millions d’euros) pour l'Agence américaine équivalente (non encore crée). L'objectif est d'évaluer le risque posé par les nouveaux modèles d’intelligence artificielle. L'Union européenne a décidé de légiférer en la matière, mais pas le Royaume-Uni[5].

En 2023, les chercheurs du CAIS ont publié un rapport sur les risques de catastrophe liés à l'IA et les stratégies d'atténuation. Les risques mentionnés incluent entre autres l'automatisation de la guerre, l'ingénierie de pandémies ainsi que les capacités de l'IA pour la tromperie et les cyberattaques[6],[7]. Un autre travail, mené en collaboration avec des chercheurs de l'Université Carnegie Mellon, a décrit un moyen automatisé de contourner les mesures de sécurité des grands modèles de langage, soulignant l'insuffisance des systèmes de sécurité actuels[8],[9].

D'autres activités du CAIS en sûreté de l'IA incluent la mise à disposition de capacités de calcul, la mise en ligne d'un cours pour débutants intitulé Intro to ML Safety, et l'offre de bourses pour les professeurs de philosophie souhaitant s'attaquer aux problèmes conceptuels[7].

Notes et références

[modifier | modifier le code]
  1. (en-US) « AI poses risk of extinction, tech leaders warn in open letter. Here's why alarm is spreading », USA TODAY,
  2. (en) « Our Mission | CAIS », www.safe.ai (consulté le )
  3. « Tech. L’intelligence artificielle crée “un risque d’extinction”, alertent… ses concepteurs », sur Courrier international, (consulté le )
  4. « IA: des experts alertent sur les menaces d'"extinction" pour l'humanité », sur BFMTV (consulté le )
  5. « Coopération. Intelligence artificielle : les États-Unis et le Royaume-Uni signent un accord “historique” », sur Courrier international, (consulté le )
  6. (en) Dan Hendrycks, Mantas Mazeika et Thomas Woodside, « An Overview of Catastrophic AI Risks », .
  7. a et b (en-US) Scharfenberg, « Dan Hendrycks from the Center for AI Safety hopes he can prevent a catastrophe », The Boston Globe, (consulté le )
  8. (en) « Researchers Poke Holes in Safety Controls of ChatGPT and Other Chatbots », The New York Times,‎ (lire en ligne, consulté le )
  9. (en) « Universal and Transferable Attacks on Aligned Language Models », llm-attacks.org (consulté le )

Articles connexes

[modifier | modifier le code]
{{bottomLinkPreText}} {{bottomLinkText}}
Center for AI Safety
Listen to this article

This browser is not supported by Wikiwand :(
Wikiwand requires a browser with modern capabilities in order to provide you with the best reading experience.
Please download and use one of the following browsers:

This article was just edited, click to reload
This article has been deleted on Wikipedia (Why?)

Back to homepage

Please click Add in the dialog above
Please click Allow in the top-left corner,
then click Install Now in the dialog
Please click Open in the download dialog,
then click Install
Please click the "Downloads" icon in the Safari toolbar, open the first download in the list,
then click Install
{{::$root.activation.text}}

Install Wikiwand

Install on Chrome Install on Firefox
Don't forget to rate us

Tell your friends about Wikiwand!

Gmail Facebook Twitter Link

Enjoying Wikiwand?

Tell your friends and spread the love:
Share on Gmail Share on Facebook Share on Twitter Share on Buffer

Our magic isn't perfect

You can help our automatic cover photo selection by reporting an unsuitable photo.

This photo is visually disturbing This photo is not a good choice

Thank you for helping!


Your input will affect cover photo selection, along with input from other users.

X

Get ready for Wikiwand 2.0 🎉! the new version arrives on September 1st! Don't want to wait?