Le gouvernement de Singapour sorti un plan Aujourd’hui pour la collaboration mondiale sur la sécurité de l’intelligence artificielle à la suite d’une réunion des chercheurs de l’IA des États-Unis, de la Chine et de l’Europe. Le doc présente une imaginative and prescient partagée pour travailler sur la sécurité de l’IA par la coopération internationale plutôt que la concurrence.
«Singapour est l’un des rares pays de la planète qui s’entend bien avec l’est et l’ouest», explique Max Tegmark, un scientifique du MIT qui a aidé à convoquer la réunion des luminaires de l’IA le mois dernier. «Ils savent qu’ils ne vont pas construire [artificial general intelligence] eux-mêmes – ils le feront à leur faire – il est donc dans leur intérêt d’avoir les pays qui vont le construire. «
Les pays pensés les plus susceptibles de construire AGI sont, bien sûr, les États-Unis et la Chine – et pourtant ces nations semblent plus déterminées à se dépasser les uns les autres que de travailler ensemble. En janvier, après que la startup chinoise Deepseek ait publié un modèle de pointe, le président Trump l’a qualifié de «réveil pour nos industries» et a déclaré que les États-Unis devaient être «axés sur le laser en compétition pour gagner».
Le consensus de Singapour sur les priorités mondiales de recherche sur la sécurité de l’IA appelle les chercheurs à collaborer dans trois domaines clés: étudier les risques posés par les modèles d’IA frontaliers, explorer des moyens plus sûrs de construire ces modèles et développer des méthodes pour contrôler le comportement des systèmes d’IA les plus avancés.
Le consensus a été développé lors d’une réunion tenue le 26 avril aux côtés de la Conférence internationale sur les représentations de l’apprentissage (ICLR), un événement de premier plan de l’IA qui s’est tenu à Singapour cette année.
Des chercheurs d’Openai, Anthropic, Google Deepmind, Xai et Meta ont tous assisté à l’événement de sécurité de l’IA, tout comme les universitaires d’establishments telles que le MIT, Stanford, Tsinghua et l’Académie chinoise des sciences. Des consultants des instituts de sécurité de l’IA aux États-Unis, au Royaume-Uni, en France, au Canada, en Chine, au Japon et en Corée ont également participé.
« À une époque de fragmentation géopolitique, cette synthèse complète de recherches de pointe sur la sécurité de l’IA est un signe prometteur que la communauté mondiale se rassemble avec un engagement commun à façonner un avenir plus sûr de l’IA », a déclaré Xue Lan, doyen de l’Université Tsinghua, dans un communiqué.
Le développement de modèles d’IA de plus en plus compétents, dont certains ont des capacités surprenantes, a poussé les chercheurs à s’inquiéter d’une gamme de risques. Alors que certains se concentrent sur les dommages à court docket terme, y compris les problèmes causés par les systèmes d’IA biaisés ou le potentiel de criminels pour exploiter la technologieun nombre vital croient que l’IA peut constituer une menace existentielle pour l’humanité alors qu’elle begin à déjouer les humains dans plus de domaines. Ces chercheurs, parfois appelés «Doomers de l’IA», craignent que les modèles trompent et manipulent les humains afin de poursuivre leurs propres objectifs.
Le potentiel de l’IA a également attiré les discussions sur une course aux armements entre les États-Unis, la Chine et d’autres nations puissantes. La technologie est considérée dans les milieux politiques comme essentielle à la prospérité économique et à la domination militaire, et de nombreux gouvernements ont cherché à jalonner leurs propres visions et réglementations régissant la façon dont elles devraient être développées.