Depuis plusieurs années maintenant, les technologues tirent la sonnette d’alarme sur le potentiel des systèmes d’IA avancés de causer des dommages catastrophiques à la race humaine.
Mais en 2024, ces appels d’avertissement ont été étouffés par une imaginative and prescient pratique et prospère de l’IA générative promue par l’industrie technologique – une imaginative and prescient qui a également profité à leurs portefeuilles.
Ceux qui mettent en garde contre les risques catastrophiques de l’IA sont souvent qualifiés de « doomers de l’IA », même si ce n’est pas un nom qu’ils aiment. Ils craignent que les systèmes d’IA prennent des décisions visant à tuer des gens, soient utilisés par les puissants pour opprimer les lots ou contribuent à la chute de la société d’une manière ou d’une autre.
En 2023, il semblait que nous étions au début d’une ère de renaissance de la réglementation technologique. Le désastre de l’IA et la sécurité de l’IA – un sujet plus giant qui peut englober les hallucinations, la modération insuffisante du contenu et d’autres façons dont l’IA peut nuire à la société – sont passés d’un sujet de area of interest discuté dans les cafés de San Francisco à une dialog apparaissant sur MSNBC, CNN et en première web page. du New York Instances.
Pour résumer les avertissements lancés en 2023 : Elon Musk et plus de 1 000 technologues et scientifiques ont appelé à une pause dans le développement de l’IAdemandant au monde de se préparer aux risques profonds de la technologie. Peu de temps après, les meilleurs scientifiques d’OpenAI, de Google et d’autres laboratoires ont signé une lettre ouverte disant le risque que l’IA provoque l’extinction de l’humanité devrait recevoir plus de crédit. Quelques mois plus tard, le président Biden a signé un décret sur l’IA avec un objectif général pour protéger les Américains des systèmes d’IA. En novembre 2023, le conseil d’administration à however non lucratif derrière le premier développeur mondial d’IA, OpenAI, a licencié Sam Altman, affirmant que son PDG avait la réputation de mentir et on ne pouvait pas faire confiance à une technologie aussi importante que l’intelligence artificielle générale, ou AGI – autrefois le level remaining imaginé de l’IA, c’est-à-dire des systèmes qui montrent réellement une conscience de soi. (Bien que le la définition change maintenant pour répondre aux besoins commerciaux de ceux qui en parlent.)
Pendant un second, il a semblé que les rêves des entrepreneurs de la Silicon Valley allaient passer au second plan par rapport à la santé globale de la société.
Mais pour ces entrepreneurs, le récit autour de la disaster de l’IA était plus préoccupant que les modèles d’IA eux-mêmes.
En réponse, le cofondateur d’a16z, Marc Andreessen, a publié «Pourquoi l’IA sauvera le monde» en juin 2023, un essai de 7 000 mots démantelant le programme des pessimistes de l’IA et présentant une imaginative and prescient plus optimiste de la façon dont la technologie se déroulera.
« L’ère de l’intelligence artificielle est arrivée, et les gens paniquent. Heureusement, je suis ici pour annoncer la bonne nouvelle : l’IA ne détruira pas le monde, mais pourrait même le sauver », a déclaré Andreessen dans le communiqué. essai.
Dans sa conclusion, Andreessen a proposé une answer pratique à nos craintes en matière d’IA : agir vite et casser les choses – essentiellement la même idéologie qui a défini toutes les autres applied sciences du 21e siècle (et les problèmes qui en découlent). Il a fait valoir que les grandes entreprises technologiques et les startups devraient être autorisées à développer l’IA aussi rapidement et de manière agressive que potential, avec peu ou pas d’obstacles réglementaires. Cela garantirait que l’IA ne tombe pas entre les mains de quelques entreprises ou gouvernements puissants et permettrait à l’Amérique de rivaliser efficacement avec la Chine, a-t-il déclaré.
Bien sûr, cela permettrait également aux nombreuses startups d’IA d’a16z de gagner beaucoup plus d’argent – et certaines a trouvé son techno-optimisme grossier à une époque d’extrême disparité des revenus, de pandémies et de crises du logement.
Même si Andreessen n’est pas toujours d’accord avec Large Tech, gagner de l’argent est un domaine sur lequel l’ensemble du secteur peut s’entendre. Les co-fondateurs d’a16z ont écrit cette année une lettre au PDG de Microsoft, Satya Nadella, essentiellement demander au gouvernement de ne pas réglementer l’industrie de l’IA du tout.
Pendant ce temps, malgré leurs gestes frénétiques de la foremost en 2023, Musk et d’autres technologues n’ont pas cessé de ralentir pour se concentrer sur la sécurité en 2024 – bien au contraire : Les investissements dans l’IA en 2024 ont dépassé tout nous avons déjà vu. Altman est rapidement revenu à la tête d’OpenAI, et un un grand nombre de chercheurs en sécurité ont quitté l’entreprise en 2024 en tirant la sonnette d’alarme à propos de sa tradition de sécurité en déclin.
Le décret de Biden sur l’IA axé sur la sécurité est largement tombé en disgrâce cette année à Washington, DC – a annoncé le nouveau président élu, Donald Trump. envisage d’abroger l’ordre de Bidenarguant que cela entrave l’innovation en matière d’IA. Andreessen dit qu’il a été conseiller Trump sur l’IA et la technologie ces derniers mois, et capital-risqueur de longue date chez a16z, Sriram Krishnanest désormais le principal conseiller officiel de Trump en matière d’IA.
Les Républicains de Washington ont plusieurs priorités liées à l’IA qui dépassent aujourd’hui la disaster de l’IA, selon Dean Ball, chercheur spécialisé dans l’IA au Mercatus Heart de l’Université George Mason. Il s’agit notamment de la development de centres de données pour alimenter l’IA, de l’utilisation de l’IA au sein du gouvernement et de l’armée, de la concurrence avec la Chine, de la limitation de la modération du contenu des entreprises technologiques de centre-gauche et de la safety des enfants contre les chatbots IA.
“Je pense [the movement to prevent catastrophic AI risk] a perdu du terrain au niveau fédéral. Aux niveaux nationwide et native, ils ont également perdu le seul fight majeur qu’ils avaient mené », a déclaré Ball dans une interview avec TechCrunch. Bien sûr, il fait référence au projet de loi controversé SB 1047 sur la sécurité de l’IA en Californie.
Une partie de la raison pour laquelle l’IA est tombée en disgrâce en 2024 est simplement due au fait que, à mesure que les modèles d’IA sont devenus plus populaires, nous avons également constaté à quel level ils peuvent être inintelligents. Il est difficile d’imaginer Google Gemini devenir Skynet alors que il t’a juste dit de mettre de la colle sur ta pizza.
Mais en même temps, 2024 a été une année où de nombreux produits d’IA ont semblé donner vie à des ideas issus de la science-fiction. Pour la première fois cette année : OpenAI a montré comment nous pouvions parler avec nos téléphones et pas à travers eux, et Meta dévoile des lunettes intelligentes avec une compréhension visuelle en temps réel. Les idées qui sous-tendent le risque catastrophique de l’IA proviennent en grande partie des movies de science-fiction, et même s’il y a évidemment une limite, l’ère de l’IA prouve que certaines idées points de la science-fiction ne seront peut-être pas éternellement fictives.
Le plus grand fight doom de l’IA de 2024 : SB 1047
La bataille pour la sécurité de l’IA en 2024 a atteint son paroxysme avec BS 1047un projet de loi soutenu par deux chercheurs réputés en IA : Geoffrey Hinton et Yoshua Benjio. Le projet de loi visait à empêcher les systèmes d’IA avancés de provoquer des extinctions humaines massives et des cyberattaques qui pourraient causer plus de dégâts que la panne de CrowdStrike de 2024.
Le SB 1047 a été adopté par l’Assemblée législative de Californie, jusqu’au bureau du gouverneur Gavin Newsom, où il l’a qualifié de projet de loi à « impression démesuré ». Le projet de loi visait à empêcher le style de choses contre lesquelles Musk, Altman et de nombreux autres dirigeants de la Silicon Valley avaient mis en garde en 2023 lorsqu’ils ont signé ces lettres ouvertes sur l’IA.
Mais Newsom a opposé son veto au SB 1047. Dans les jours précédant sa décision, il a parlé de la réglementation de l’IA sur scène au centre-ville de San Francisco, en disant : « Je ne peux pas tout résoudre. Que pouvons-nous résoudre ?
Cela résume assez clairement la façon dont de nombreux décideurs politiques réfléchissent aujourd’hui au risque catastrophique de l’IA. Ce n’est tout simplement pas un problème de answer pratique.
Malgré cela, le SB 1047 présentait des défauts au-delà de sa focalisation sur le risque catastrophique de l’IA. Le projet de loi réglementait les modèles d’IA en fonction de leur taille, dans le however de réglementer uniquement les plus grands acteurs. Cependant, cela ne prend pas en compte les nouvelles strategies telles que le calcul au second des assessments ou l’essor des petits modèles d’IA, vers lesquels les principaux laboratoires d’IA se tournent déjà. En outre, le projet de loi a été largement considéré comme une attaque contre l’IA open supply – et par procuration, le monde de la recherche – automotive il empêcherait des entreprises comme Meta et Mistral de publier des modèles d’IA hautement personnalisables.
Mais selon l’auteur du projet de loi, le sénateur Scott Wiener, La Silicon Valley a joué un sale rôle pour influencer l’opinion publique à propos du SB 1047. Il a précédemment déclaré à TechCrunch que les investisseurs en capital-risque de Y Combinator et A16Z s’étaient engagés dans une campagne de propagande contre le projet de loi.
Plus précisément, ces groupes ont répandu l’affirmation selon laquelle le SB 1047 enverrait les développeurs de logiciels en jail pour parjure. Y Combinator a demandé aux jeunes fondateurs de signer une lettre pour le dire en juin 2024. À peu près à la même époque, l’associée générale d’Andreessen Horowitz, Anjney Midha, a fait une déclaration similaire sur un podcast.
La Brookings Establishment a qualifié cela de une des nombreuses fausses déclarations du projet de loi. Le SB 1047 mentionne que les dirigeants du secteur technologique devraient soumettre des rapports identifiant les lacunes de leurs modèles d’IA, et le projet de loi souligne que mentir sur un doc gouvernemental constitue un parjure. Cependant, les investisseurs en capital-risque qui ont propagé ces craintes ont omis de mentionner que les gens sont rarement accusés de parjure, et encore plus rarement condamnés.
YC a rejeté l’idée qu’ils diffusaient de la désinformation, déclarant auparavant à TechCrunch que le SB 1047 était obscure et pas aussi concret que le sénateur Wiener le prétendait.
Plus généralement, lors de la lutte contre le SB 1047, le sentiment s’est accru que les doomers de l’IA n’étaient pas seulement anti-technologie, mais aussi délirants. En octobre de cette année, le célèbre investisseur Vinod Khosla a qualifié Wiener d’ignorant les véritables risks de l’IA.
Le scientifique en chef de l’IA de Meta, Yann LeCun, s’est longtemps opposé aux idées qui sous-tendent la disaster de l’IA, mais il est devenu plus franc cette année.
“L’idée que d’une manière ou d’une autre [intelligent] les systèmes proposeront leurs propres objectifs et prendront le contrôle de l’humanité, c’est tout simplement absurde, c’est ridicule », a déclaré LeCun à Davos en 2024soulignant à quel level nous sommes très loin de développer des systèmes d’IA superintelligents. « Il existe de nombreuses façons de construire [any technology] d’une manière qui sera dangereuse, mauvaise, tuera des gens, and so forth… Mais tant qu’il existe une façon de bien faire les choses, c’est tout ce dont nous avons besoin.
Pendant ce temps, les décideurs politiques ont porté leur consideration sur un nouvel ensemble de problèmes de sécurité de l’IA.
Le fight à venir en 2025
Les décideurs politiques derrière le SB 1047 ont laissé entendre ils pourraient revenir en 2025 avec une facture modifiée pour faire face aux risques à lengthy terme liés à l’IA. L’un des sponsors du projet de loi, Encode, affirme que l’consideration nationale attirée par le SB 1047 était un sign positif.
“Le mouvement pour la sécurité de l’IA a fait des progrès très encourageants en 2024, malgré le veto du SB 1047”, a déclaré Sunny Gandhi, vice-président des affaires politiques d’Encode, dans un e-mail à TechCrunch. « Nous sommes optimistes quant au fait que le public est de plus en plus conscient des risques à lengthy terme liés à l’IA et que les décideurs politiques sont de plus en plus disposés à relever ces défis complexes. »
Gandhi dit qu’Encode s’attend à des « efforts importants » en 2025 pour réglementer les risques catastrophiques assistés par l’IA, même si elle n’en a divulgué aucun en particulier.
De l’autre côté, Martin Casado, associé général d’a16z, fait partie des personnes qui mènent la lutte contre la réglementation des risques catastrophiques liés à l’IA. En décembre article d’opinion Concernant la politique en matière d’IA, Casado a fait valoir que nous avons besoin d’une politique en matière d’IA plus raisonnable pour aller de l’avant, déclarant que « l’IA semble être extrêmement sûre ».
“La première obscure d’efforts politiques stupides en matière d’IA est en grande partie derrière nous”, a déclaré Casado dans un tweet de décembre. “J’espère que nous pourrons être plus intelligents à l’avenir.”
Qualifier l’IA de « extrêmement sûre » et les tentatives de la réglementer de « stupides » relève d’une simplification extreme. Par exemple, Character.AI – une startup dans laquelle a16z a investi – est actuellement en cours de développement. poursuivi et enquêté sur les problèmes de sécurité des enfants. Dans un procès en cours, un garçon de Floride de 14 ans s’est suicidé après avoir prétendument confié ses pensées suicidaires à un chatbot Character.AI avec lequel il avait eu des discussions romantiques et sexuelles. Ce cas, en soi, montre remark notre société doit se préparer à de nouveaux sorts de risques liés à l’IA qui auraient pu paraître ridicules il y a quelques années à peine.
De plus en plus de projets de loi circulent sur les risques à lengthy terme liés à l’IA – dont un qui vient d’être présenté au niveau fédéral par Le sénateur Mitt Romney. Mais maintenant, il semble que les doomers de l’IA mèneront une bataille difficile en 2025.
#Silicon #Valley #étouffé #mouvement #catastrophique #lIA, #gossip247.on-line , #Gossip247
TC,AI,Authorities & Coverage,ai security,SB 1047,AI doom ,
chatgpt
ai
copilot ai
ai generator
meta ai
microsoft ai