Quantcast
Channel: AI – Cryptopolitan
Viewing all articles
Browse latest Browse all 182

Google, OpenAI och 13 andra lovar att inte distribuera riskfyllda AI-modeller

$
0
0
tron g>Google, OpenAI och Meta har kommit överens om att sluta utveckla någon AI-modell om de inte kan innehålla riskerna. Företagen anmälde sig till "AI Safety Commitments" på tisdagen vid AI Seoul Summit som arrangerades av Storbritannien och Sydkorea. tron g> Läs också: Storbritannien och Republiken Korea samarbetar om AI-toppmötet Det är en världsnyhet som har så många ledande AI-företag från så många delar av världen som alla går med på samma åtaganden om AI-säkerhet. — Storbritanniens premiärminister, Rishi Sunak 16 AI-företag accepterar AI-säkerhetsåtaganden Enligt rapporten gick totalt 16 AI-företag med på säkerhetslöftet, som spänner över USA, Kina och Mellanöstern. Microsoft, Amazon, Anthropic, Samsung tron och den kinesiska utvecklaren Zhipu.ai är också bland företagen som accepterar säkerhetsstandarderna. Läs också: Alibaba och Tencent investerar 342 miljoner dollar i AI Startup Zhipu AI Safety-löftet kräver att alla företag publicerar sina respektive säkerhetsramverk inför ett annat AI Action Summit i Frankrike i början av 2025. Ramverket kommer att förklara hur företagen avgör riskerna med sina modeller och vilka risker som "bedöms som oacceptabla". AI-företag kommer att dra ur kontakten för riskfyllda AI-modeller I de mest extrema fallen kommer företagen "inte utveckla eller implementera en modell eller ett system alls" om riskerna inte kan begränsas, enligt rapporten. Den verkliga potentialen hos AI kommer bara att frigöras om vi kan hantera riskerna. Det är upp till oss alla att se till att AI utvecklas på ett säkert sätt. — Michelle Donelan, Storbritanniens teknologisekreterare I juli 2023 gjorde den amerikanska regeringen en liknande ansträngning för att ta itu med riskerna och fördelarna med AI. dent Joe Biden träffade Google, Microsoft, Meta, OpenAI, Amazon, Anthropic och Inflection för att diskutera AI-säkerhetsåtgärder som säkerställer att deras AI-produkter är säkra innan de släpps. AI-säkerhetsdebatt värms upp över OpenAI Konversationen om AI-säkerhet har värmts upp under de senaste månaderna, särskilt kring AGI:er, som syftar till att efterlikna människoliknande allmän intelligens. Ett av företagen OpenAI fångades i centrum för det här samtalet förra veckan efter att medgrundaren, Ilya Sutskever, och den högsta chefen, Jan Leike, avgick från företaget. Duon var ansvarig för OpenAI Superalignment-teamet som skapades för att förhindra att deras modeller blir skurkaktiga. Läs också: En annan OpenAI Exec, Jan Leike slutar I sitt inlägg sa Leike att "under de senaste åren har säkerhetskulturen och -processerna tagit en baksäte till glänsande produkter" på företaget. Vi har länge väntat på att bli otroligt seriösa om konsekvenserna av AGI. Vi måste prioritera att förbereda dem så gott vi kan. Först då kan vi säkerställa att AGI gynnar hela mänskligheten. — Jan Leike (@janleike) 17 maj 2024 Leike tillade att "OpenAI måste bli ett AGI-företag i första hand" och att vi måste prioritera att förbereda oss för dem så gott vi kan för att säkerställa att AGI gynnar hela mänskligheten. Kryptopolitisk rapportering av Ibiam Wayas

Viewing all articles
Browse latest Browse all 182

Trending Articles


Emma och Hans Wiklund separerar


Dödsfallsnotiser


Theo Gustafsson


Katrin Ljuslinder


Rickard Olssons bröllopslycka efter rattfyllan


Sexbilderna på Carolina Neurath gjorde maken rasande


Öppna port för VPN tjänst i Comhems Wifi Hub C2?


Beröm för Frida som Carmen


Emilia Lundbergs mördare dömd till fängelse


Peg Parneviks sexfilm med kändis ute på nätet


518038 - Leif Johansson - Stockholms Auktionsverk Online


Martina Åsberg och Anders Ranhed har blivit föräldrar.


Klassen framför allt


Brangelinas dotter byter kön


Norra svenska Österbotten


Sanningen om Lotta Engbergs skilsmässa från Patrik Ehlersson


Arkitekt som satt många spår


Krysslösningar nr 46


Per MICHELE Giuseppe Moggia


Månadens konst - En egen olivlund!