Actualités technologiques

Des experts mondiaux appellent à un gel de la superintelligence artificielle : Une menace existentielle !

Plus de 700 scientifiques, hommes politiques, entrepreneurs technologiques et célébrités ont lancé mercredi une initiative d’urgence pour stopper le développement de l’intelligence artificielle (IA) qui dépasse l’intelligence humaine, mettant en garde contre les risques catastrophiques qu’elle fait peser sur l’humanité.

Initiative de l’Institut du futur de la vie et signataires

« Nous appelons à un moratoire sur le développement de la superintelligence artificielle jusqu’à ce que les scientifiques parviennent à un consensus sur le fait qu’elle peut être construite de manière sûre et contrôlée, et jusqu’à ce qu’il y ait un soutien public », peut-on lire dans la déclaration de l’initiative publiée par l’organisation américaine à but non lucratif Future of Life Institute, connue pour ses fréquentes mises en garde contre les dangers d’une intelligence artificielle incontrôlée. Parmi les signataires figurent des leaders dans le domaine, tels que Geoffrey Hinton (lauréat du prix Nobel de physique 2024), Stuart Russell (Université de Californie Berkeley) et Yoshua Bengio (Université de Montréal). Richard Branson (Virgin), Steve Wozniak (Apple), Steve Bannon (ancien conseiller de Trump), Susan Rice (conseillère d’Obama), Paolo Benanti (expert du Vatican), ainsi que le chanteur William I. Am et les princes Harry et Meghan. Am, le prince Harry et Meghan Markle. Cette large coalition reflète un rare consensus entre scientifiques, politiques et célébrités sur la nécessité de freiner avant qu’il ne soit trop tard.

La course à l’AGI et les avertissements urgents

Les grandes entreprises s’intéressent à l’intelligence artificielle générale (AGI), où le système devient égal, puis surhumainement supérieur aux capacités humaines totales. Sam Altman (OpenAI, créateur de ChatGPT) prévoit d’atteindre ce stade d’ici 5 ans, comme il l’a déclaré en septembre devant le groupe Axel Springer. Max Tegmark, président de l’institut, a déclaré à l’AFP : « Peu importe que ce soit dans deux ans ou dans quinze ans, construire quelque chose comme ça est inacceptable. » Ajouté : « On peut être en faveur de la création d’outils d’IA plus puissants, pour traiter le cancer par exemple, tout en s’opposant à la super-AI ». Il a souligné que les entreprises opéraient « sans aucun cadre réglementaire », faisant référence à son tweet : « Une large coalition a émergé contre Skynet : Chercheurs en IA, leaders religieux, entrepreneurs, décideurs politiques… Nous sommes solidaires parce que nous voulons un avenir humain ».

Résonance internationale et appels à des accords mondiaux

Cet appel vient compléter une lettre signée il y a un mois par des chercheurs et des dirigeants des Nations unies, appelant à la conclusion d' »accords internationaux sur les lignes rouges de l’IA » afin d’éviter une catastrophe. Il s’agit d’une alerte mondiale qui rassemble un large éventail de personnalités, de droite comme de gauche, afin d’imposer des contrôles avant que la superintelligence ne devienne une réalité incontrôlable.

Karim Boukhris

بوقريس كريم صحفي متخصص في كرة القدم، ويملك خبرة تمتد لسبع سنوات في مجال الصحافة الرياضية المغربية. تعاون مع وسائل إعلام مثل "لو ماتان سبور"، "أطلس فوت" و"راديو ماروك سبور"، وينشر تحليلات تكتيكية وتقارير معمقة حول كرة القدم المغربية، مع تركيز خاص على المنتخبات الوطنية.

Articles similaires

Laisser un commentaire

Bouton retour en haut de la page