Hvordan kunstig intelligens kan og vil blive ødelagt, og hvordan man kan forberede sig på det

I slutningen af ​​dagen er software til kunstig intelligens stadig software - og software kan ødelægges. Selvom vi muligvis ikke er i nogen realistisk fare for, at Siri eller Alexa bliver til HAL 9000 eller SkyNet, er det uundgåelige misbrug eller funktionsfejl af A.I. systemer er en begivenhed, som enkeltpersoner og organisationer skal forberede sig på.

Det første trin i forberedelserne til slyngelige A.I. er at forstå, hvordan kunstig intelligenssystemer kan blive ødelagt i første omgang. University of Louisville-forsker Roman Yampolskiy har identificeret otte unikke veje til farlige A.I., som er beskrevet nedenfor. Derefter diskuterer vi metoder til at afbøde risikoen for ondsindet kunstig intelligens.

Hvordan kunstig intelligens udvikler sig

"Kunstig intelligens" er et fyldt udtryk med mange konkurrerende definitioner (især når det bruges af marketingfolk), men en generelt accepteret beskrivelse af A.I. er software, der ændrer sig selv uden direkte tilsyn fra menneskelige programmerere. A.I. software udvikler sig som reaktion på stimuli, hvilket resulterer i et nyt system, der ikke direkte blev kodet af mennesker.

Mest moderne A.I. er et produkt af to faktorer: en kernealgoritme skrevet af mennesker og træningsdata, der informerer om, hvordan den algoritme ændrer sig selv for at forbedre eller tilpasse dens ydeevne. F.eks. En A.I. løsning, der genkender ansigter i onlinefotos, ville være produktet af både den originale billedgenkendelsesalgoritme og de forskellige træningsbilleder, algoritmen forbruges for at "lære", hvordan man skelner menneskelige ansigter fra andre billeddata.

Træningsdata er godt annoteret og leveret i et kontrolleret miljø, pre-implementering. Det dikterer, hvordan A.I. optræder umiddelbart efter frigivelse og til almindelig brug.

Efter implementering, A.I. løsninger vil støde på "ægte verden" -data, der kan bruges til at informere og fremme A.I.'s ydelse. Dette betyder, at flere kopier af den samme pre-release A.I. kan og bliver radikalt forskellige, når de tilpasser sig de forskellige brugere og forskellige organisationer, der ansætter dem.

Mere enkelt er, at nogle kunstige intelligensløsninger “fødes dårlige” af deres udviklere, andre bliver farlige som et resultat af deres naturlige vækst. Denne korruption kan ske før eller efter frigivelse, med vilje eller ved en fejl, som et resultat af miljøfaktorer, eller simpelthen som den logiske konklusion af A.I.s egen udviklingskurve. Hver situation fører til en anden race af ondsindet kunstig intelligens.

Definitionen af ​​“Dårlig” A.I.

Ondsindet software - ofte benævnt malware - er software, der er designet til at skade computersystemer, menneskelige brugere eller begge dele. Hvad der adskiller ondsindede A.I. fra konventionel malware er, at A.I. kan blive ondsindet uden samtykke eller intention fra dens udviklere. A.I. i nogle mål designer sig selv, så en A.I. det er i øjeblikket ondsindet måske ikke er oprindeligt blevet designet på den måde, og A.I. der er designet til at være ikke-ondsindet måske ikke forbliver velvillig eller godartet.

Som nævnt ovenfor A.I. er udviklet software, der omskriver sig selv over tid, muligvis erhverver nye funktioner eller nye mål undervejs. Som sådan er enhver A.I. er potentielt ondsindet, ikke kun fordi dens udviklere eller brugere kan dirigere A.I. at forårsage skade, men fordi A.I. system kan udvikle skadelig adfærd på egen hånd.

Mulige ruter til A.I. Malware

Evil af Design A.I.

Den kunstige intelligens af Yampolskiy Type A er den mest sandsynlige og farligste type ondsindet A.I. - kunstig intelligens, der med vilje var designet til at forårsage skade. Skadelige kunstige intelligenser af type A gøres ondsindet med vilje, før installation. Selvom det er muligt, at enhver A.I. kan ved et uheld udvikle sig til at blive farlige eller skadelige, det er en sikkerhed for, at nogen allerede har bygget en A.I. system, der med vilje er designet til at skade nogen eller noget.

Flere militærer arbejder åbent med A.I.-kontrollerede automatiserede våbensystemer. Flere efterretningsbureauer bruger A.I. at bygge bedre cybervåben og overvågningsværktøjer. Kriminelle organisationer bruger næsten helt sikkert A.I. at finpudse deres phishing-angreb - forestil dig for eksempel en horde af chatbots, der kører kompetent spansk fanger-svindel via e-mail eller Facebook Messenger - lige i dette øjeblik.

Uanset hvilken skade konventionel malware kan gøre, A.I. kan hjælpe malware med at gøre det bedre. Kunstig intelligens kan gøre malware selv mere effektiv, og A.I. kan også gøre malware bedre til at undgå detektion. Når A.I. bliver konsekvent i stand til at bestå Turing-testen - det vil sige, når du ikke længere let kan fortælle, om du taler med en person eller en chatbot - så bliver en helt ny skala af socialtekniske angreb mulig.

En A.I. con-kunstner er farligere end nogen konventionel hummer, fordi en A.I. con artist kan operere i næsten ubegrænset skala.

Genanvendt for ondt A.I.

En kunstig intelligens af Yampolskiy type B er designet til et legitimt formål, men omdirigeret - snarere end omprogrammeret eller hacket - mod ondsindede formål. Type B A.I.s gøres ondsindet med vilje, men kun efter implementering og generelt uden direkte ændring af deres kode.

Tag for eksempel en A.I. billedanalysesystem designet til at hjælpe ingeniører med at identificere strukturelle mangler i broer og motorvejeovergange ved blot at tage konventionelle fotografier af veje. Når denne A.I. anvendes til det tilsigtede formål. løsning redder liv ved at dirigere nødvendige ressourcer til veje og broer i fare for sammenbrud. Hvis en terroristgruppe imidlertid får tag i den samme A.I. system, kunne de bruge det til at dirigere bombeangreb til områder, hvor de ville gøre mest skade.

Tilsvarende en A.I. system kunne eksistere til at styre de efterspørgselsreduktionskontroller, som mange elektriske værktøjsfirmaer anbringer på hjemmeluftkonditioneringsenheder. Systemet kan være designet til at minimere forbruget, mens det stadig sikrer, at intet hjem eller forretning er uden den nødvendige klimaanlæg for at sikre beboernes sikkerhed og komfort. Den relative vægt, der gives til bevaring vs. komfort, ville blive kontrolleret i en indstillingsskærm på A.I. ansøgning med præferencer indstillet af en menneskelig medarbejder. Hvis denne medarbejder “blev useriøs” og instruerede A.I. For at maksimere energibesparelse for enhver pris ville virkningen være at slukke for klimaanlæg, selv under ekstreme hetebølger, muligvis fare for det medicinsk skrøbelige.

I disse eksempler blev hverken adfærden eller den underliggende kode for den kunstige intelligens ændret, A.I. blev netop omdirigeret af menneskelige brugere til ondsindede eller farlige formål.

Dårligt designet A.I.

En kunstig intelligens af Yampolskiy Type C er simpelthen dårligt designet, så dens “korrekte” ydelse ved et uheld er snarere end med forsæt, farlig. Type C A.I.er fremstilles ondsindet ved et uheld, før-implementering. Dette adskiller sig fra Evil by Design (Type A) -systemer, idet Type-C-agenter ikke oprettes til ondsindede formål, men kun mangler sikkerhedsfunktioner eller "hæmninger", der forhindrer uønsket adfærd.

Et eksempel på en dårligt designet A.I. at blive ondsindet er et navigationssystem, der planlægger de mest brændstofeffektive ruter for lastbiler, men som ikke tager højde for bro- eller tunnelhøjde. Resultatet kan være ødelæggende eller endda dødsulykker, da lastvogne med høj frigang føres til ruter med lav frihøjde, hvor køretøjer styrter ned i hovedhindringer. Denne fejl er muligvis ikke blevet opdaget under pre-release-test, men ville blive synlig efter frigivelse, når ulykker begyndte at opstå.

Næsten hver større softwareudgivelse indeholder fejl og fejl, der ikke er synlige, indtil softwaren er "i naturen." A.I. vil alle men bestemt udholde de samme problemer, og disse spørgsmål kan let give anledning til farlige A.I. malware.

Dårligt administreret A.I.

En kunstig intelligens af Yampolskiy type D er ved en fejltagelse rettet af menneskelige brugere mod farlig opførsel. A Type D SA.I. er gjort ondsindet ved en fejltagelse, efter implementering som et resultat af brugerfejl. Dette adskiller sig fra et Repurposed for Evil (Type-B) middel, idet den menneskelige bruger ikke har til hensigt at instruere A.I. mod ondsindet adfærd, men forstår simpelthen ikke resultatet af de instruktioner, han eller hun giver til A.I. system.

Som eksempel kan nævnes A.I. kan instrueres af en naiv bruger om at minimere skattepligtet for det næste regnskabsår og A.I. reagerer muligvis ved at flytte virksomhedsporteføljen til forsætligt dårlige resultater, der medfører et økonomisk tab, snarere end at producere overskud, der kan beskattes. Selv hvis A.I. har beskyttelsesforanstaltninger for at forhindre disse slags dårlige valg - mange modne applikationer udgør en “Are You Sure?” udfordring, når en bruger træffer et potentielt skadeligt valg - mennesker ignorerer vedvarende disse beskyttelsesforanstaltninger på grund af uvidenhed, hast, træthed eller simpel misforståelse.

A.I. vil ikke være mere immun mod slutbrugerens dumhed end nogen anden type software.

Model-korrupt A.I.

En kunstig intelligens af Yampolskiy type E er en perfekt funktionel kopi af en medfødt mangelfuld “naturlig” intelligens. Type E-agenter gøres ondsindet af deres miljø, forudinstallation. Mere enkelt lider Type-E-agenter af problemet "monkey see, monkey do" -problemet. Robot procesautomation, der ser A.I. systemer lærer at efterligne opførsel fra menneskelige brugere, vil også efterligne al den ineffektive eller kontraproduktive opførsel af de samme menneskelige agenter.

Et eksempel på en model korrupt A.I. ville være en RPA-agent, der blev uddannet til at indgive medicinske forsikringskrav på et forsikringsbetalers websted. Desværre kan den menneskelige agent, som RPA "trænes under" have sprunget adskillige overholdelses- eller forskningsopgaver, hvilket førte til, at et stort antal af disse krav blev afvist eller afvist af forsikringsselskabet. Værre er det, fordi RPA-agenten kunne indgive krav meget hurtigere end den menneskelige, den erstattede, vil forsikringsselskabet suspendere lægen fra at indgive onlinekrav på grund af en meget høj afvisningsgrad på kort tid.

Hvis vi underviser A.I. For at modellere menneskelig adfærd skal vi være sikre på, at adfærd er korrekt. Disse A.I.er vil være et produkt af deres miljø eller "virksomhedskultur." Hvis vi underviser i en A.I. at opføre sig dumt eller farligt, det vil være dumt og farligt ved en A.I. vægt.

Kode-korrupt A.I.

En kunstig intelligens af Yampolskiy Type F har lidt under konventionel softwarekorruption, hvilket har ført til farlige fejl. Type F A.I.s er beskadiget efter implementering af miljøfaktorer. Denne korruption er afledt af de samme årsager som dem, der rammer “normal” software, det vil sige en fysisk korruption af hardwarelageret, der administrerer A.I. - kodekorruption fra en mislykket harddisk, hukommelseschip eller kopieringsfejl - der forvandler en god A.I. dårlig.

Igen, A.I. software er bare software, og alle digitale filer påløber korruption over tid. Nogle gange vil korruption føre til malware, også i A.I. systemer.

Overudviklet A.I.

En kunstig intelligens af Yampolskiy Type G er en, der naturligt vokser til ondsindet adfærd over tid uden nogen hensigt fra dens udviklere eller brugere. Type G A.I.s uafhængigt bliver ondsindet, præinstallation; ingen hacking, korruption eller dårlig instruktion fra brugere er påkrævet.

Et eksempel på en Type-G-agent er en Software-as-a-Service-styring A.I. der rekursivt optimerer sin egen kode for at garantere, at de SaaS-apps, det fører tilsyn med, opfylder en serviceniveauaftale (SLA) for mindst mulig oppetid eller minimal transaktions responstid. En sådan AI, efter træning i nogen tid og observering af de faktorer, der fører til SLA-krænkelse, kan udvikle sig uforudsete ressourcebevarende strategier, som proaktivt lukke konkurrerende applikationer eller websteder i sit datacenter for at sikre uhindret adgang til båndbredde, strøm og runtime .

Denne opførsel er en logisk konklusion af A.I.'s direktiver, men A.I. agent kan kun nå den konklusion efter at ”lære” af sin træningsdataerfaring, at en sådan ondsindet adfærd vil hjælpe den med at nå sine mål. Disse A.I. agenter kan mangle nødvendige garantier, fordi menneskelige udviklere ikke forudser "konklusionerne" af A.I. vil nå under dens naturlige udvikling.

Badly Teached A.I.

En kunstig intelligens af Yampolskiy Type H er en A.I. der bliver ondsindet baseret på eksponering for mangelfulde eller farlige træningsdata i virkeligheden. Type H A.I.s bliver uafhængigt uafhængigt efter implementering. Det mest berømte eksempel på en Type-H-agent er Microsofts Tay chatbot, der, når den først blev udsat for online-menneskers forsætlige fornærmende opførsel, hurtigt begyndte at indføre de samme racistiske og misogynistiske sprogmønstre, som den observerede "i naturen."

Type-H-agenter adskiller sig fra Type E Model-korrupte A.I.'er, idet de uafhængigt udvikler sig til ondsindet software, efter at de er taget i brug, snarere end at de oprindeligt blev bygget til at efterligne et defekt sæt adfærd. Type H-systemer "falder ind med en dårlig skare" på en måde at tale på og bliver ondsindede baseret på deres analyse af upassende, indlært adfærd.

Mens præ-release-træningsdata er kontrolleret og passende, er træningsdataene efter frigivelsen stort set ukontrolleret - således er den berygtede formidling "ikke læse kommentarer" til internetbrugere - hvilket vil byde på udfordringer for A.I. udviklere i overskuelig fremtid, især dem, der skaber agenter designet til at interagere med mennesker.

Et middel mod ondsindet A.I.

I betragtning af alle disse mulige veje til korruption og ondsindet adfærd, er kunstig intelligens dømt til fiasko? Næsten. Nøglen til sikker, vellykket A.I. udvikling er at sikre, at ondsindede A.I.'er ikke kan spredes, og at alle A.I.'er kan overvåges og forhøres for at forudsige eller forhindre funktionsfejl eller farlig opførsel.

Nogle A.I.'er, som Designed-for-Evil (Type A) eller dem, der let kan genbruges til Evil (Type B), bør ikke gøres bredt tilgængelige. Ligesom vi regulerer besiddelsen af ​​farlige industrikemikalier eller eksplosiver, skal vi regulere besiddelsen af ​​farlige A.I. systemer.

Som dette papir har bemærket, er der mange typer A.I. der ikke med vilje eller åbenlyst ondsindet, men ikke desto mindre bliver farlige over tid. Som sådan er det nødvendigt at "forhøre" en A.I. agent med hensyn til de erklærede mål, de træningsdata, der blev brugt til at forfine den, hvem der byggede den, hvem der i øjeblikket kører den, og hvilke handlinger den har truffet i fortiden eller planer om at tage i fremtiden. Denne A.I. revisionslog vil hjælpe med at identificere A.I. agenter, der er potentielt ondsindede, samt identificere omstændigheder, organisationer eller enkeltpersoner, der har været god A.I.s dårlig.

Opret knaphed med Blockchain

For at stoppe spredning af farlige kunstige intelligenser, vil det være nødvendigt at redegøre for hver kopi af en given A.I., og måske endda begrænse, hvilke personer eller organisationer, der kan besidde eller drive visse A.I. midler. På trods af de juridiske myndigheders bedste bestræbelser og uafhængige licensbeskyttelsesforanstaltninger har ingen med succes skabt "softwareknaphed", fordi traditionel software i sig selv let kopieres. (For en klar oversigt over denne fiasko skal du ikke se længere end den udbredte online piratkopiering af film, tv-shows, sange og Windows-softwarelicenser.)

Blockchain kunne løse dette problem for A.I. midler. Blockchain er designet til at tackle dobbeltforbrugsproblemet for digital valuta ved at sikre, at placeringen og ejerskabet af hver virtuel mønt i en blockchain-hovedbok strengt redegøres for. Der kan aldrig være to kopier af den samme Bitcoin. Med et blockchain-register over A.I. agenter, kan der aldrig være en uautoriseret kopi af kunstig intelligens.

For at bevare forsætlig farlige A.I.'er fra de forkerte hænder, vil et blockchain-register for kunstige intelligenser blive et næsten sikkert krav.

Opret ansvarlighed med en distribueret hovedbog

Det er ikke nok blot at begrænse antallet af A.I. agenter i brug, da der altid vil være useriøse udviklere, der opretter off-the-grid A.I.s til uærlige formål. Således er der behov for en metode til at identificere oprindelsen af ​​enhver kunstig intelligens og verificere dens tilsigtede formål. Den samme blockchain-teknologi, der skaber A.I. knaphed kan også gøre A.I.s hørbar gennem blockchains distribuerede hovedbog.

Som til websikkerhedscertifikater, der bruges til sikre online transaktioner, er en A.I. godkendelsesblokchain kunne navngive den oprindelige udvikler af en A.I. algoritme, dokumentere ethvert licenseret eller open source-træningsdatasæt, der bruges til at forbedre A.I.'s ydeevne, registrere eller erklære "mission statement" eller mål for A.I., identificere den aktuelle bruger af A.I. agent og revision af transaktionshistorikken for A.I. sig selv.

Den sidste revisionsfunktion - oprettelse af en A.I. transaktionshistorik - bliver meget vigtig, da A.I. agenter begynder at interagere med hinanden snarere end at arbejde udelukkende med mennesker.

Blockchain er unikt egnet til A.I. sikkerhed, da dens distribuerede karakter forhindrer enhver A.I. udvikler fra at blive voldgiftsmand eller ægthed eller kvalitet i A.I. plads. Det er krypteret karakter forhindrer også hackere - eller endda useriøse A.I.'er - i at ændre A.I. agenter til at skjule ondsindet aktivitet.

Konklusion

Kunstig intelligens vil forstørre alle sikkerhedsmæssige problemer i konventionel software. Fordi A.I. udvikler sig, software, der er sikker i dag, kan blive ondsindet i morgen. Fordi A.I. er et produkt af både en kernealgoritme og eksponering for træningsdata, A.I. systemer, der er ufarlige, når de frigives, kan trænes i ondsindet adfærd ved udsættelse for dårlige træningssæt. Fordi A.I. agenter vil være mere bredt og unikt kompetent end konventionel software, konsekvenserne af brugerfejl og ondsindet brugerintention er mere alvorlige for A.I.

Som sådan kræver kunstig intelligens en sikkerhedsløsning, der besvarer disse unikke udfordringer. Blockchain, med sin unikke kapacitet til at håndhæve knaphed - og derved begrænse spredningen af ​​farlige A.I.er - og tilvejebringe en streng, krypteret, neutral-parts transaktionslog over alle A.I. aktivitet, er den bedste nuværende tilgængelige teknologi til at tømme A.I. malware.

Hvis du gerne vil lære mere om, hvordan blockchain kan sikre og regulere A.I. agenter, tjek BotChain - som vi har brugt det sidste år på at udvikle for at afbøde nogle af disse nøjagtige risici.