Com es pot i es farà malbé la intel·ligència artificial i com preparar-s’hi

En última instància, el programari d’intel·ligència artificial continua essent un programari i es pot danyar. Tot i que no correm el risc real que Siri o Alexa es converteixin en HAL 9000 o SkyNet, l’inevitable ús indegut o mal funcionament dels sistemes d’IA és una possibilitat per a la qual s’han de preparar les persones i les organitzacions.

El primer pas per preparar-se per a la IA canalla és entendre com es poden danyar en primer lloc els sistemes d’intel·ligència artificial. L’investigador de la Universitat de Louisville, Roman Yampolskiy, ha identificat vuit vies úniques cap a la IA perillosa, que es detallen a continuació. A continuació, es discuteixen els mètodes per reduir el risc d’intel·ligència artificial perjudicial.

Com evoluciona la intel·ligència artificial

"Intel·ligència artificial" és un terme amb moltes definicions en competència (especialment quan s'utilitza per professionals del màrqueting), però una descripció generalment acceptada de la IA és un programari que canvia a si mateix sense que els programadors humans la supervisin directament. El programari d’IA evoluciona com a resposta als estímuls, donant lloc a un nou sistema que no va ser codificat directament pels humans.

La IA d’avantguarda és el producte de dos factors: un algorisme bàsic escrit per humans i dades de formació que revelen com canvia aquest algorisme per millorar o ajustar el seu rendiment. Per exemple, una solució d’intel·ligència artificial que reconeix les cares a les fotos en línia és el producte de l’algorisme original de reconeixement d’imatges i de les diverses imatges d’entrenament que utilitza l’algorisme per aprendre a distingir els rostres humans d’altres dades d’imatges.

Les dades de formació estan ben anotades i es proporcionen en un entorn controlat abans del desplegament. Pretén com es realitza la IA immediatament després del llançament i en ús general.

Tanmateix, després del desplegament. Les solucions s’enfronten a dades del “món real”, que es poden utilitzar per informar i millorar el rendiment del servei d’informació al client. Això significa que diverses còpies de la mateixa versió prèvia a la IA poden i seran radicalment diferents a mesura que s’adapten als diferents usuaris i organitzacions que l’utilitzen.

En termes senzills, algunes solucions d’intel·ligència artificial són “malvades” pels seus desenvolupadors, mentre que d’altres es tornen perilloses pel seu creixement natural. Aquest dany es pot produir, intencionadament o accidentalment, abans o després del seu alliberament com a resultat de factors ambientals, o simplement com a conclusió lògica de la pròpia corba de desenvolupament de la IA. Cada circumstància condueix a un tipus diferent d’intel·ligència artificial maliciosa.

La definició de IA "dolenta"

El programari maliciós (sovint anomenat programari maliciós) és un programari dissenyat per danyar els sistemes informàtics, els usuaris o tots dos. El que distingeix la IA maliciosa del malware tradicional és que la IA es pot convertir en maliciosa sense el consentiment o la intenció del desenvolupador. La IA es dissenya d’alguna manera, de manera que una IA que actualment és malintencionada. Pot ser que originalment no s’hagi dissenyat d’aquesta manera i que no s’hagi de permetre que la IA dissenyada per no ser malintencionada sigui benèfica o benèfica.

Com s'ha esmentat anteriorment, la IA és un programari en evolució que es reescriu amb el pas del temps, possiblement amb noves funcions o objectius. Com a tal, qualsevol IA és potencialment malintencionada, no només perquè els seus desenvolupadors o usuaris estan causant danys a la IA, sinó perquè el sistema de la IA pot desenvolupar conductes perjudicials per si mateix.

Possibles rutes cap a malware AI

Evil by Design AI

La intel·ligència artificial tipus A de Yampolskiy és el tipus més probable i més perillós d’intel·ligència artificial malintencionada: intel·ligència artificial dissenyada a propòsit per causar danys. Tipus A La intel·ligència artificial maliciosa es fa intencionalment intencionada abans del desplegament. Tot i que és possible que la IA pugui resultar perillosa o perjudicial per accident, és cert que algú ja té un sistema d’IA dissenyat intencionadament per fer mal a algú o alguna cosa.

Diversos oficials militars estan treballant obertament en sistemes d'armes automatitzats controlats per la IA. Diverses agències d'intel·ligència utilitzen la IA per construir millors armes cibernètiques i eines de vigilància. Les organitzacions criminals gairebé segur que utilitzen la IA per aguditzar els seus atacs de pesca (imaginem, per exemple, una horda de xats que realitzen estafes competents per presoners espanyols per correu electrònic o Facebook Messenger) ara mateix.

Qualsevol cosa que pugui fer el programari tradicional maliciós, la IA pot ajudar a que el programari maliciós funcioni millor. La intel·ligència artificial pot fer que el malware sigui més eficaç i la IA també pot millorar el malware per evitar la detecció. Quan la IA ha passat la prova de Turing, és a dir, quan ja no es pot saber fàcilment si està parlant amb una persona o amb un xatbot, és possible una nova gamma d’atacs d’enginyeria social.

Un engany d’IA és més perillós que qualsevol Huckster convencional, ja que es pot utilitzar un artista artificial amb IA gairebé indefinidament.

Reutilitzat per a la IA malvada

Una intel·ligència artificial de tipus B desenvolupada per Yampolskiy amb un propòsit legítim però redirigida (en lloc de reprogramar-la o piratejar-la) amb finalitats malicioses. Els IA de tipus B es classifiquen com a maliciosos a propòsit, però només després del desplegament i, generalment, sense canvis directes de codi.

Prenem, per exemple, un sistema d’anàlisi d’imatges d’IA que permet als enginyers detectar defectes estructurals en ponts i passos superiors d’autopistes simplement fent fotos tradicionals als carrers. Quan s’utilitza de la manera prevista, aquesta solució d’IA salva vides dirigint els recursos necessaris a carreteres i ponts amb risc de col·lapse. Tanmateix, si un grup terrorista tingués la mateixa IA, podria utilitzar-la per bombardejar zones on causaria més danys.

De la mateixa manera, una IA podria tenir un sistema per controlar la reducció de la demanda que moltes companyies elèctriques utilitzen per a la climatització domèstica. El sistema es podria dissenyar per minimitzar el consum, tot i assegurar-se que cap casa o negoci no tingui l'aire condicionat necessari per garantir la seguretat i la comoditat dels ocupants. El pes relatiu donat al manteniment enfront de la comoditat es mostrarà en una pantalla de configuració de l'aplicació d'AI, amb les preferències establertes per un operador humà. Si aquest empleat "es convertís en un canalla" i la IA per maximitzar l'estalvi energètic a tota costa, l'aire condicionat es desactivaria fins i tot en onades de calor extremes, cosa que posaria en risc els dèbils mèdics.

En aquests exemples, ni el comportament ni el codi subjacent de la intel·ligència artificial han canviat, la IA només ha estat redirigida per usuaris humans amb finalitats malicioses o perilloses.

IA mal dissenyada

La intel·ligència artificial de tipus C de Yampolskiy està simplement mal dissenyada, de manera que el seu rendiment "correcte" és més accidental que intencionadament perillós. Els IA de tipus C es classifiquen erròniament com a maliciosos abans del desplegament. Això es diferencia del mal pel sistema de disseny (tipus A) en què els agents de tipus C no es creen amb finalitats malicioses, sinó que simplement no tenen cap element de seguretat ni "inhibicions" que impedeixin un comportament indesitjat.

Un exemple d'una IA mal dissenyada Un sistema de navegació que planifica les rutes més econòmiques per als vehicles de repartiment però que no considera les altures del pont ni del túnel és cada vegada més maliciós. Això pot provocar danys o fins i tot accidents mortals si els camions amb una distància al terra elevada es condueixen per rutes amb una distància al terra baixa i els vehicles es troben amb obstacles. És possible que aquest error no s'hagi descobert durant les proves anteriors al llançament, però es faria evident quan es produïren accidents després de l'alliberament.

Gairebé totes les versions principals de programari contenen errors i errors que només es fan visibles quan el programari està "en llibertat". Segurament la IA tindrà els mateixos problemes, i aquests problemes podrien convertir-se en programari maliciós AI perillós.

IA mal gestionada

Una intel·ligència artificial de tipus D de Yampolskiy està dirigida sense voler a comportaments perillosos per part dels usuaris humans. Un tipus D SA.I. S'ha identificat erròniament com a maliciós després del desplegament com a resultat d'un error de l'usuari. Això es diferencia d’un agent reutilitzat per al mal (tipus B) en què l’usuari no té intenció d’utilitzar l’IA contra un comportament maliciós, sinó que simplement no entén el resultat de les instruccions que va donar al sistema d’intel·ligència artificial.

Com a exemple, un usuari ingenu pot demanar a una IA de gestió de cartera financera que minimitzi la responsabilitat fiscal del proper exercici i la IA pot respondre-hi canviant la cartera de la companyia a inversions intencionadament de baix rendiment que causin pèrdues financeres. Per obtenir beneficis que es poguessin tributar. Fins i tot si la IA té precaucions de seguretat per evitar decisions equivocades. Moltes aplicacions madures presenten un repte quan un usuari pren una decisió potencialment perjudicial. La gent ignora aquestes garanties de manera persistent a causa de la ignorància, la pressa, la fatiga o el simple malentès.

La IA no és més immune a la ximpleria de l'usuari final que qualsevol altre tipus de programari.

Model AI corrupte

Una intel·ligència artificial de tipus E de Yampolskiy és una còpia que funciona perfectament d’una intel·ligència «natural» innata amb deficiències. Els agents de tipus E es tornen maliciosos pel seu entorn abans del subministrament. En poques paraules, els agents de tipus E pateixen el problema de "veure mico, fer mico". L’automatització de processos robotitzats, on els sistemes d’IA inferiors que aprenen a imitar el comportament dels usuaris humans, també imiten qualsevol comportament ineficient o contraproduent dels mateixos agents humans.

Un exemple d’un model d’IA danyat seria un agent RPA format per presentar reclamacions d’assegurança mèdica en un lloc web de pagadors d’assegurances. Malauradament, l’empleat “format” de l’APR pot haver saltat diverses tasques de compliment o investigació, cosa que ha provocat que l’assegurador rebutgi o denegui un gran nombre d’aquestes reclamacions. Pitjor encara, atès que l'agent de RPA podria presentar sol·licituds molt més ràpid que la que substitueix, la companyia d'assegurances exclourà el metge de presentar sol·licituds en línia en un curt període de temps a causa d'un índex de rebuig molt alt.

Quan fem servir la IA per modelar el comportament humà, hem d’estar segurs que el comportament és correcte. Aquests IA són un producte del seu entorn o "cultura corporativa". Si tenim una IA per comportar-nos estúpidament o perillosament, serà estúpid i perillós en un marc d’IA.

Codi AI corrupte

Una intel·ligència artificial de tipus F de Yampolskiy pateix corrupció de programari convencional, cosa que provoca mal funcionaments. Els IA de tipus F es veuen danyats per factors ambientals després del desplegament. Aquesta corrupció prové de les mateixes causes que afecten el programari "normal"; H. Un dany físic a la memòria de maquinari que conté els errors del codi AI d'un disc dur fallat, un xip de memòria deficient o un error de còpia: això és un mal AI.

Una vegada més, el programari d’intel·ligència artificial només és programari i tots els fitxers digitals es corrompen amb el pas del temps. De vegades, aquesta corrupció provoca programari maliciós, fins i tot en sistemes AI.

IA superdesenvolupada

La Intel·ligència Artificial de tipus G de Yampolski evoluciona naturalment cap a un comportament maliciós amb el pas del temps sense la intenció ni del desenvolupador ni de l’usuari. Els IA de tipus G es tornen maliciosos per si mateixos abans del desplegament. No calen atacs de pirates informàtics, corrupció ni instruccions incorrectes dels usuaris.

Un exemple d’agent de tipus G és una IA de gestió de programari com a servei, que optimitza recursivament el seu propi codi per garantir que les aplicacions SaaS que controla tenen un acord de nivell de servei (SLA) per a un Compleix la disponibilitat mínima o un temps mínim de resposta a la transacció. Aquesta IA, després d’haver entrenat durant un temps i observat els factors que condueixen a violacions de l’SLA, pot desenvolupar estratègies imprevistes per atresorar recursos, com ara:

Aquest comportament és una conclusió lògica a partir de les directrius d’IA, però les directrius d’IA. L’agent no pot treure aquesta conclusió fins que després d’haver après de les seves dades d’entrenament que aquest comportament maliciós ajuda a assolir els seus objectius. És possible que aquestes IA no tinguin les garanties necessàries perquè els desenvolupadors humans arribaran a les "conclusions" de la IA durant la seva evolució natural.

AI mal ensenyat

Una intel·ligència artificial tipus H de Yampolskiy és una IA que es fa malintencionada quan s’exposa a dades d’entrenament incorrectes o perilloses de la pràctica. Els IA de tipus H es tornen maliciosos sols després de desplegar-se. L’exemple més famós d’agent de tipus H és el chatbot Tay de Microsoft, que, després d’haver estat exposat al comportament ofensiu intencionat de la gent en línia, va adoptar ràpidament els mateixos patrons de llenguatge racista i misogin que va observar “en llibertat”. .

Els agents tipus H es diferencien dels agents tipus A / S corromputs del model E, ja que es converteixen en programari maliciós per si mateixos després de fer-los servir, en lloc de ser creats per imitar un conjunt de comportaments defectuosos. Els sistemes tipus H "es troben amb una multitud pobra" i es tornen maliciosos en funció de l'anàlisi de comportaments apresos inadequats.

Tot i que les dades de la formació estan controlades i adequades abans de la publicació, les dades de la formació són en gran mesura incontrolades després de la publicació; per tant, la famosa advertència "no llegeixi els comentaris" per als usuaris d'Internet és un repte per als desenvolupadors d'IA per al futur previsible, especialment aquells que fan servir Desenvolupar la interacció amb les persones.

Un remei per a la IA malintencionada

Tenint en compte totes aquestes possibles vies de corrupció i comportament maliciós, la intel·ligència artificial està condemnada al fracàs? Tot just. La clau per a un desenvolupament segur i segur de la IA és assegurar-se que els A.I malintencionats no es puguin reproduir i que es pugui controlar i consultar tots els A.I per predir o prevenir malfuncions o comportaments perillosos.

Alguns IA, com ara Dissenyats per al mal (tipus A) o Reutilitzats per al mal (tipus B), no haurien d’estar disponibles generalment. De la mateixa manera que regulem la tinença de productes químics o explosius industrials perillosos, també hem de regular la possessió de sistemes perillosos d’intel·ligència artificial.

Com es va assenyalar en aquest article, hi ha molts tipus d’IA que no són intencionadament o òbviament malintencionats, però tanmateix perillosos amb el pas del temps. Com a tal, cal proporcionar una IA amb informació sobre els objectius indicats, les dades de formació utilitzades per al refinament, el fabricant, l’operador i les mesures preses o previstes en el passat. Aquest registre d’auditoria d’IA ajuda a identificar agents d’IA que són potencialment maliciosos, així com circumstàncies, organitzacions o persones que han demostrat ser bones.

Crea escassetat amb blockchain

Per aturar la difusió de la intel·ligència artificial perillosa, cal tenir en compte totes les còpies d'una IA determinada i, fins i tot, restringir-se a quines persones o organitzacions posseeixen o poden operar certa IA. Agents. Malgrat els millors esforços de les autoritats judicials i les garanties de llicències independents, ningú ha creat amb èxit la “manca de programari” perquè el programari tradicional és intrínsecament fàcil de copiar. (Es pot obtenir una visió clara d’aquest error estudiant la pirateria en línia generalitzada de pel·lícules, programes de televisió, títols i llicències de programari de Windows.)

Blockchain podria plantejar aquest problema per als agents d’intel·ligència artificial. Blockchain està dissenyat per resoldre el doble problema de despesa en monedes digitals, garantint que es tingui en compte estrictament la posició i la propietat de cada moneda virtual en un llibre major de blockchain. Mai no hi pot haver dues còpies del mateix bitcoin. Amb un registre blockchain d’agents d’intel·ligència artificial, mai no hi pot haver una còpia no autoritzada d’una intel·ligència artificial.

Per mantenir intencionadament les IA perilloses fora de les mans equivocades, el registre de la cadena de blocs per a la intel·ligència artificial s'està convertint en un requisit gairebé segur.

Creeu responsabilitats amb un llibre major distribuït

No n’hi ha prou amb comptar el nombre d’agents d’intel·ligència artificial que s’utilitzen, ja que sempre hi haurà desenvolupadors canalla creant A.I fora de la xarxa amb finalitats nefastes. Per tant, cal un mètode per identificar els orígens d’una intel·ligència artificial i verificar-ne l’objectiu previst. La mateixa tecnologia de cadena de blocs que l’escassetat d’IA també pot fer que els IA es puguin verificar a través del llibre major distribuït de la cadena de blocs.

Igual que amb els certificats de seguretat de llocs web que s’utilitzen per a transaccions en línia segures, una cadena de blocs d’autenticació d’intel·ligència artificial podria capturar o documentar el desenvolupador original d’un algorisme d’intel·ligència artificial, qualsevol conjunt de dades de formació amb llicència o codi obert que s’utilitzin per millorar el rendiment de l’intel·ligència artificial declarar la "declaració de missió" o objectiu de la IA, identificar l'usuari actual de l'agent AI i comprovar l'historial de transaccions de la IA mateixa.

Aquesta funció d’auditoria final, la creació d’un historial de transaccions d’IA, serà crucial ja que els agents d’IA comencen a interactuar entre ells en lloc de treballar exclusivament amb persones.

La cadena de blocs és única per a la seguretat de la IA, ja que la seva naturalesa distribuïda situa a tots els desenvolupadors d’IA en un arbitratge, un nivell d’autenticitat o qualitat a la IA. El xifratge també impedeix als pirates informàtics (o fins i tot usuaris fraudulents d’IA) utilitzar els registres de llibres distribuïts dels agents d’IA per camuflar activitats malicioses.

Conclusió

La intel·ligència artificial augmentarà les preocupacions de seguretat del programari tradicional. Com que la intel·ligència artificial evoluciona, el programari segur avui en dia pot esdevenir maliciós demà. Com que la IA és producte tant d’un algorisme bàsic com de l’exposició a les dades d’entrenament, els sistemes d’IA que són inofensius quan es publiquen poden entrenar-se en comportaments malèvols sotmetent-los a grups d’entrenament dolents. Com que els agents d’intel·ligència artificial són més complets i competents que els programes convencionals. Les conseqüències de l’error de l’usuari i la intenció malintencionada dels usuaris són més greus per a la IA

Per tant, la intel·ligència artificial requereix una solució de seguretat que superi aquests reptes únics. La cadena de blocs, amb la seva capacitat única d’aplicar l’escassetat (que limita la difusió d’IA perillosos) i proporciona un registre de transaccions estricte i xifrat de tota l’activitat de la IA, és la millor tecnologia disponible actualment per detectar el malware de la IA.

Si voleu obtenir més informació sobre com Blockchain AI pot fer un cop d'ull a BotChain, que vam desenvolupar durant l'últim any per ajudar a mitigar alguns d'aquests riscos exactes.