tron g> Regeringar från Sydkorea och Storbritannien kommer att uppmana teknikföretag att ta itu med säkerhetstillsynen med artificiell intelligens vid veckans internationella AI-toppmöte. tron g> Detta möte är en uppföljning av det första globala AI-säkerhetstoppmötet någonsin som hölls i Storbritanniens Bletchley Park förra året, där ett antal regeringar uttryckte sin oro över AI-risker. Där fanns också AI-företag, eftersom tekniken de arbetar med utgör dessa risker. Mitt i de många internationella försöken att skapa skyddsräcken för den snabbt utvecklande tekniken som har potential att revolutionera många aspekter av samhället, har toppmötet i Seoul väckt oro över nya risker för det dagliga livet. "Även om positiva ansträngningar har gjorts för att forma global AI-styrning, kvarstår fortfarande betydande luckor." Det brittiska toppmötet i november samlade forskare, regeringstjänstemän, tekniska chefer och representanter för civilsamhällets organisationer, av vilka många hade olika åsikter om artificiell intelligens. Mötena ägde rum bakom stängda dörrar på Bletchley. Tillsammans med politiker inklusive Storbritanniens premiärminister Rishi Sunak, vd:arna för OpenAI Sam Altman och Tesla deltog även Elon Musk, tillsammans med många andra. Säkerhet kommer att vara en prioritet vid AI-toppmötet Säkerhet kommer återigen att ha högsta prioritet vid AI Seoul Summit, som börjar på tisdag. Storbritanniens och Sydkoreas regeringar står som värdar för mötet den 21–22 maj. Framstående AI-företag, som Microsoft, Anthropic, Google DeepMind, ChatGPT-skaparen OpenAI och Mistral, en fransk AI-startup, är planerade att skicka representanter. Storbritanniens premiärminister Rishi Sunak och Sydkoreas dent Yoon Suk Yeol skrev också en gemensam artikel som publicerades i INews på måndagen. De accepterade potentialen i denna teknik och uttryckte sin vilja att garantera säkerheten och sa: "Tillsammans är vi fast beslutna att ta vara på potentialen hos denna teknik för att förvandla världen till det bättre." De betonade också att när ny teknik medför nya risker, så har AI också gjort det. De påpekade missbruket av AI av oseriösa aktörer som medvetet vill utnyttja AI för missgärningar. Nyligen upplöste OpenAI sitt säkerhetsteam, kallat Superalignment-teamet, när dess medgrundare Ilya Sutskever och några andra nyckelanställda lämnade företaget. Utvecklingen kom från världens ledande AI-företag bara några dagar före toppmötet i Seoul, vars fokus är att mildra riskerna med AI. Läs också: Internationellt samarbete uppmanas att ta itu med AI-risker vid Bletchley Park Summit I en annan utveckling släppte Anthropic idag sin rapport om policy för ansvarsfull skalning, som enligt företaget har visat goda resultat. Vi kan dock inte bekräfta dessa resultat. Även om vi inte är i stånd att kommentera någon av dessa utvecklingar, ger de en viss tankeställare. Innovationen måste fortsätta Efter ChatGPT:s snabba uppgång till popularitet kort efter lanseringen 2022, började teknikföretag över hela världen investera miljarder dollar i att bygga sina generativa AI-modeller. Sunak och Yeol nämnde den snabba innovationen när nya AI-modeller lanseras dagligen. De sa, "Regeringen kan främja denna innovation genom att investera miljarder, stärka spetsforskningen i våra universitet i världsklass och se till att vi inte överreglerar de nystartade företag som skulle kunna producera nästa stora idé." Förespråkare av generativa AI-modeller har hyllat tekniken som ett genombrott som kommer att förbättra människors liv och företag över hela världen eftersom den kan producera text, fotografier, musik och till och med video som svar på enkla signaler. Vissa av dessa produkter som har fått allmän uppmärksamhet har sin egen inbäddade bias, vilket är en anledning till oro. Läs också: Att arbeta med Ai är viktigt, säger AI-experter på Fidics globala ledarskapsforum Och det är inte bara dessa; tekniken som fungerar bakom dessa produkter, så kallade stora språkmodeller (LLM), har också blivit bastekniken bakom många lösningar inom olika sektorer. Från autonomt körande fordon till medicinska lösningar, många förlitar sig på generativa AI LLMs för att fungera. Det finns fortfarande rörande röster Många människor har krävt internationella riktlinjer för att kontrollera utvecklingen och tillämpningen av AI. Till exempel kräver en New York-baserad rörelse som heter Ban the Scan ett stopp för att använda ansiktsigenkänning på statlig och privat nivå. De hävdar att dessa tekniker stör personlig frihet och har en hög andel falska positiva resultat. En sida på tron Frontier Foundation lyder, "Ansiktsigenkänning är ett hot mot integritet, rasrättvisa, yttrandefrihet och informationssäkerhet. Ansiktsigenkänning i alla dess former, inklusive ansiktsskanning och trac i realtid, utgör ett hot mot medborgerliga friheter och individuell integritet.” De är inte de enda. Människorättsförespråkare, regeringar och kritiker har varnat för att AI kan missbrukas på många sätt. Till exempel kan icke-statliga aktörer använda det för att påverka väljarna med fiktiva nyhetsrapporter eller så kallade "deepfake" bilder och videor på förtroendevalda. En annan djupare oro är de rapporter som dyker upp om stater som stöder oseriösa element för deras intressen. "Vi kommer också att ta nästa steg för att forma de globala standarderna som kommer att undvika en kapplöpning mot botten." Duonartikeln nämnde ovanstående uttalande och betonade att det skulle vara till hjälp att diskutera internationella normer för AI i ett mer öppet forum. Samtidigt har några av de sydkoreanska medborgarrättsorganisationerna kritiserat arrangörerna för att de inte bjudit in tillräckligt många utvecklingsländer. Frankrike kommer också att hålla en "Viva Technology"-konferens denna vecka, med stöd av LVMH, världens största lyxkoncern. Under det senaste året har Frankrike försökt trac AI-startups att positionera sig som Europamästare i AI. Kryptopolitisk rapportering av Aamir Sheikh
↧