Le rêve brisé ! L’exploit de Mbemba élimine le Cameroun du Mondial 2026.
Afrique
Hannibal Kadhafi, détenu au Liban pendant près de dix ans, a été libéré
Afrique
MALI – Accès aux soins : le Président Assimi GOÏTA lance la construction de 15 hôpitaux
Afrique
Procès libyen : Nicolas Sarkozy libéré de prison, «la vérité triomphera» assure l’ancien président
Europe
Le Sénat américain trouve un accord provisoire en vue de mettre fin au shutdown, selon des médias
Politique
Démission du directeur général de la BBC, après le montage contesté d’un discours de Donald Trump
Europe
Coupe du monde U17 Qatar 2025 : Les Étalons cadets se relancent en battant la République Tchèque 2-1
Afrique
RTS - LE JT 20H DU VENDREDI 07 NOVEMBRE 2025
ORTB BENIN - LE JT 20H DU LUNDI 10 NOVEMBRE 2025
RTB TV - LE JT 20H DU LUNDI 10 NOVEMBRE 2025
ORTM - LE JT 20H DU LUNDI 10 NOVEMBRE 2025
Mettre à jour
RTN Niger - LE JT 20H30 DU LUNDI 10 NOVEMBRE 2025
EQUINOX TV / LE JT 20H DU LUNDI 10 NOVEMBRE 2025
En réaction à des suicides d’adolescents, le gouverneur de la Californie Gavin Newsom a signé lundi une série de lois pour réguler les agents conversationnels d’intelligence artificielle, imposant notamment de vérifier l’âge des utilisateurs et d’afficher des avertissements. Cette législation est unique aux États-Unis.
La Californie défie la pression de la Maison-Blanche qui s’oppose à la régulation de l’IA. Le Golden State a promulgué, lundi 13 octobre, une législation régulant pour la première fois aux États-Unis les agents conversationnels, ou « chatbots », d’intelligence artificielle (IA), après une série de suicides d’adolescents ayant noué des relations fictives intimes avec ces outils, a annoncé le gouverneur Gavin Newsom.
Le gouverneur démocrate a signé lundi une série de lois qui imposent, entre autres, de vérifier l’âge des utilisateurs, d’afficher des messages d’avertissement réguliers et de prévoir des protocoles de prévention du suicide.
« Nous avons vu des exemples vraiment horribles et tragiques de jeunes qui ont été victimes de technologies peu régulées, et nous ne resterons pas les bras croisés pendant que des entreprises exercent sans limites et sans rendre de comptes », a déclaré Gavin Newson dans un communiqué publié après la promulgation de ce paquet législatif.
Un des principaux textes, la loi SB243, concerne la régulation des chatbots susceptibles de jouer un rôle de compagnon ou confident, tels que ceux développés par des plates-formes, comme Replika ou Character.AI.
Cette dernière a été l’une des premières poursuivie en justice par les parents d’un adolescent américain de 14 ans, Sewell, qui s’est tué en 2024 après avoir noué une relation amoureuse avec un chatbot inspiré de la série « Game of Thrones » et soupçonné de l’avoir renforcé dans ses pensées suicidaires.
‘Nous pouvons continuer à être leader dans le domaine de l’IA (…) mais nous devons agir de façon responsable, en protégeant nos enfants tout au long du chemin », a ajouté le gouverneur de Californie, qui abrite la Silicon Valley et les principaux géants du développement de modèles d’IA comme OpenAI (ChatGPT), Google (Gemini) ou xAI (Grok).
Aucune législation nationale
Outre la vérification de l’âge, cette loi impose d’afficher des messages réguliers pour rappeler à l’utilisateur que son interlocuteur est une machine (tous les 3 heures pour les mineurs). Elle oblige les entreprises à prévoir une détection des pensées suicidaires, à fournir un accès à des programmes de prévention et à transmettre des statistiques sur le sujet aux autorités.
« L’industrie technologique est encouragée à capter l’attention des jeunes et la retenir au détriment de leurs relations dans le monde réel », avait argué pendant les débats le sénateur californien Steve Padilla, à l’origine du texte.
« Les technologies émergentes comme les chatbots et les réseaux sociaux peuvent être source d’inspiration, éduquer et relier les gens, mais sans véritables garde-fous, elles peuvent aussi exploiter, égarer et mettre en danger nos enfants », a encore justifié le gouverneur.
Aux États-Unis, il n’y a pas de règles nationales pour limiter les risques liés à l’IA, et la Maison-Blanche essaie d’empêcher les États de produire leurs propres règles.
Avec AFP
Vous devez vous connecter pour publier un commentaire.