Även om ansträngningarna för att reglera skapandet och användningen av artificiell intelligens (AI)-verktyg i USA har gått långsamt att vinna, har president Joe Bidens administration försökt beskriva hur AI bör användas av den federala regeringen och hur AI-företag bör säkerställa säkerheten och säkerheten för sina verktyg.
Den inkommande Trump-administrationen har dock en helt annan syn på hur man ska närma sig AI, och det kan sluta med att vända några av de framsteg som har gjorts under de senaste åren.
President Biden undertecknade en verkställande order i oktober 2023 som var tänkt att främja ”säker, säker och pålitlig utveckling och användning av artificiell intelligens” inom den federala regeringen. Tillträdande president Donald Trump har lovat att upphäva den verkställande ordern och sagt att den skulle hindra innovation.
Biden kunde också få sju ledande AI-företag att gå med på riktlinjer för hur AI säkert ska utvecklas framöver. Bortsett från det finns det inga federala bestämmelser som specifikt behandlar AI. Experter säger att Trump-administrationen sannolikt kommer att ha en mer praktisk inställning till branschen.
”Jag tror att det största vi kommer att se är det massiva upphävandet av den typ av inledande steg som Biden-administrationen har tagit mot meningsfull AI-reglering”, säger Cody Venzke, en senior politisk rådgivare vid ACLU:s nationella politiska advocacy-avdelning. ”Jag tror att det finns ett reellt hot om att vi kommer att se AI-tillväxt utan betydande skyddsräcken, och det kommer att bli lite gratis för alla.”
Tillväxt utan skyddsräcken är vad branschen har sett hittills, och det har lett till ett slags vilda västern inom AI. Detta kan orsaka problem, inklusive spridning av deepfake porr och politiska deepfakes, utan att lagstiftare begränsar hur tekniken kan användas.
En av Biden-administrationens största bekymmer, och de inom det tekniska policyområdet, har varit hur generativ AI kan användas för att föra desinformationskampanjer, inklusive deepfakes, som är bedrägliga videor av människor som visar dem säga eller göra saker de aldrig gjort. . Den här typen av innehåll kan användas för att försöka påverka valresultaten. Venzke säger att han inte förväntar sig att Trump-administrationen ska fokusera på att förhindra spridning av desinformation.
AI-regler behöver inte nödvändigtvis vara ett stort fokus för Trump-administrationen, säger Venzke, men det är på deras radar. Bara den här veckan valde Trump Andrew Ferguson att leda Federal Trade Commission (FTC) – och han kommer sannolikt att trycka tillbaka mot att reglera branschen.
Ferguson, en kommissionär för FTC, har sagt att han kommer att sträva efter att ”avsluta FTC:s försök att bli en AI-regulator”, rapporterade Punchbowl News, och sa att FTC, en oberoende byrå som är ansvarig inför den amerikanska kongressen, borde vara helt och hållet ansvarig för det ovala kontoret. Han har också föreslagit att FTC ska undersöka företag som vägrar annonsera bredvid hatiskt och extremistiskt innehåll på sociala medieplattformar.
Venzke säger att republikanerna tror att demokraterna vill reglera AI för att få den att ”vakna”, vilket betyder att de skulle erkänna saker som existensen av transpersoner eller klimatförändringar orsakade av människor.
AI:s förmåga att ”informera beslut”
Artificiell intelligens svarar inte bara på frågor och genererar bilder och videor. Kit Walsh, chef för AI och rättsliga projekt för tillgång till kunskap vid Electronic Frontier Foundation, säger till Bladet att AI används på många sätt som hotar människors individuella friheter, inklusive i rättsfall, och att reglera det för att förhindra skada är nödvändigt .
Medan människor tror att datorer som fattar beslut kan eliminera partiskhet, kan det faktiskt göra att partiskhet blir mer förankrad om AI:n skapas med hjälp av historisk data som i sig är partisk. Till exempel kan ett AI-system som skapades för att avgöra vem som får villkorlig frigivning använda data från fall där svarta amerikaner fick hårdare behandling än vita amerikaner.
”De viktigaste frågorna inom AI just nu är dess användning för att informera beslut om människors rättigheter”, säger Walsh. ”Det sträcker sig från allt från förutseende polisarbete till att bestämma vem som får statliga bostäder till hälsofördelar. Det är också den privata användningen av algoritmiskt beslutsfattande för att anställa och avskeda eller bostäder och så vidare.”
Walsh säger att hon tror att det finns mycket ”teknikoptimism och lösningism” bland några av de människor som Trump är intresserade av att rekrytera till sin administration, och de kan sluta med att försöka använda AI för att främja ”effektivitet i regeringen”.
Detta är det uttalade målet för personer som Elon Musk och Vivek Ramaswamy, som kommer att leda vad som verkar vara en rådgivande kommitté kallad Department of Government Efficiency.
”Det är sant att du kan spara pengar och sparka vissa anställda om du är okej med mindre exakta beslut [that come with AI tools]. Och det kan vara den väg som någon kan ta för att minska de statliga utgifterna. Men jag skulle avråda från det, eftersom det kommer att skada de människor som är beroende av statliga myndigheter för viktiga tjänster, säger Walsh.
Trump-administrationen kommer sannolikt att spendera mycket mer tid fokuserad på avreglering än att skapa nya regler om Trumps första mandatperiod som USA:s president 2017-2021 ger någon antydan om vad som kan förväntas. Det inkluderar bestämmelser relaterade till skapandet och användningen av AI-verktyg.
”Jag skulle vilja se en förnuftig reglering som banar väg för socialt ansvarsfull utveckling, implementering och användning av AI”, säger Shyam Sundar, chef för Penn State Center for Socially Responsible Artificial Intelligence. ”Samtidigt bör regleringen inte vara så hårdhänt att den inskränker innovation.”
Sundar säger att den ”nya revolutionen” som utlösts av generativ AI har skapat ”lite vilda vilda västern-mentalitet bland teknologer”. Framtida regelverk, säger han, bör fokusera på att skapa skyddsräcken där det behövs och främja innovation inom områden där AI kan vara användbart.