Eksperdid: militaarne tehisaru areneb eetikast ja seadustest märksa kiiremini

Veebruari keskpaigas lahvatanud kokkupõrge tehnoloogiahiiu Anthropicu ja USA valitsuse vahel on märgilise tähendusega pretsedent ning tõstatab eetilisi ja õiguslikke küsimusi tehisaru kasutamise üle riigikaitses, osutavad eksperdid.
Konflikt sai alguse, kui Anthropic keeldus muutmast oma keelemudelile Claude seatud eetilisi piiranguid. Need filtrid on loodud takistamaks tehnoloogia kasutamist autonoomsetes ründerelvades ja massilises siseriiklikus jälgimises.
President Donald Trumpi administratsioon vastas sellele aga enneolematu sammuga, kuulutades kodumaise Anthropicu tarneahela riskiks (supply chain risk). Tegu on esimese korraga, kui USA ettevõtet on sellise määratlusega avalikult karistatud. Varem on näiteks tarneahela riskiks nimetatud Hiina tehnoloogiahiid Huawei.
Saatuse irooniana nähti toona ühe riskina, et Hiina hakkab ettevõtte toodangut kasutama USA elanike järele luuramiseks. Tartu Ülikooli tehisintellekti professori Meelis Kulli sõnul kasutavadki autoritaarsed riigid tehisaru ning muid tehnoloogilisi lahendusi enda kodanike järel nuhkimiseks. "Siin ei ole küsimustki," sõnas Kull. Demokraatlikumad ühiskonnad on aga olnud seni sääraste arengute suhtes ettevaatlikud.
Trump andis kõikidele föderaalasutustele korralduse lõpetada igasugune Anthropicu tehnoloogia kasutamine. USA kaitseminister Pete Hegseth keelas ka kõigil Ühendriikide sõjaväe koostööpartneritel ettevõttega äri ajada. Hegseth lisas, et Pentagoni sisekasutuses olevatele Anthropicu litsentsidele laieneb kuuekuuline üleminekuperiood. Anthropic kaebas seepeale Trumpi administratsiooni kohtusse, väites, et tegu on valitsuse kättemaksuga.
Anthropicu, mille omanikeringi kuulub ka Eesti tehnoloogiainvestor Jaan Tallinn, eristub teistest arendajatest oma ainulaadse lähenemise poolest. Programmeerijad on keelemudelisse ehitanud eetilise vundamendi ehk nn tehisaru põhiseaduse. Juturobot ei tohi sellest väärtuste kogumist üle astuda, isegi kui kasutaja seda nõuab. USA valitsuse ootused aga sellise arusaamaga ei ühti.
Sõjaväe himu piiranguteta käituva tehisintellekti järele pole pelgalt teoreetiline. Juba praegustes Lähis-Ida konfliktides on nähtud süsteeme, mis otsivad ja leiavad potentsiaalseid sihtmärke kiirusel, millega inimaju ei suuda sammu pidada. Seega on Anthropicu keelemudeli arendajate hirm põhjendatud. Kui eemaldada piirangud, võib TI hakata langetama otsuseid elu ja surma üle viisil, kus inimene ei ole enam kaasatud.
Tehisintellekti- ja robootikakeskuse AIRE AI-ekspert Rene Väli sõnul pole selge, mida selline areng endaga kaasa tooks. "See avab Pandora laeka: kas sellisel puhul lasub vastutus mudelil endal või on ta lihtsalt väga tark tööriist?" püstitas Väli retoorilise küsimuse.
Samal ajal näitas turuvalitseja OpenAI üles valmidust Trumpi administratsiooniga koostööd teha. Samuti eemaldas OpenAI oma kasutustingimustest varasema selgesõnalise keelu kasutada nende mudelit sõjanduses ja lahingutegevuses. OpenAI tegevjuht Sam Altman põhjendas oma seisukohta vajadusega säilitada lääneriikide tehnoloogiline eelis, et vältida autoritaarsete režiimide domineerimist tehisaru valdkonnas.
Kahe teraga mõõk
Tehisintellekti professor Meelis Kull leidis, et ühest küljest on taoline avalik arutelu positiivne ning on hea, et see ei toimu täielikult suletud uste taga. "Samas on loomulikult murettekitav, kui ettevõte peab eetilistel kaalutlustel soovima, et riik ei kasutaks suuri võimekusi viisil, nagu valitsus seda soovib," selgitas Kull.
AIRE AI-ekspert Rene Väli sõnas, et igal eraettevõttel peab olema õigus keelduda militaartehnoloogia arendamisest, kui nad soovivad keskenduda ainult tsiviillahendustele. "Sellisel juhul tellib valitsus vajaliku tehnoloogia lihtsalt teiselt pakkujalt," lisas ta. Samas ei ole tema hinnangul haruldane, kui ettevõtte tegeleb nii tsiviil- kui ka militaarsektoris. Klassikaline näide on Boeing, mis toodab nii reisilennukeid kui ka rakette.
Keelemudelite puhul teeb olukorra keeruliseks see, et tegemist on ühe ja sama tööriistaga. "Sama mudel, mis genereerib mulle õhtul pasta retsepti, võib genereerida käske, mis suunavad raketi vaenlase poole," tõdes Väli.
Tehisaru arendamine sarnaneb tema hinnangul võidurelvastumisega. "Kui vastane seda võimekust arendab, peame ka meie seda tegema, kuni ühel hetkel jõutakse sarnaselt tuumarelvadele kokkuleppeni, et selline võidurelvastumine pole kellelegi kasulik," lisas Väli.
Inimene peab jääma otsustajaks
Tallinna Tehnikaülikooli digitehnoloogiate reguleerimise teadur Pablo Martinez Ramil nentis, et tehisaru sõjalistel eesmärkidel kasutamisega kaasnevad väga keerulised õiguslikud küsimused.
"Meil pole veel vahendeid, mis suudaksid rahvusvahelisel tasandil selle teema keerukust täielikult käsitleda. Euroopas on tehisintellekti akt, mis militaarlahendustele ei rakendu, heaks kiidetud, kuid me räägime juba esimestest muudatustest, mis peaksid jõustuma sel aastal," selgitas teadlane. Ramil märkis, et seadused eeldavad stabiilset ühiskonda, kuid tehnoloogia innovatsioon on palju kiirem: "See on võidujooks, kus seadusandlus jääb alati viimaseks."
Õiguslikest küsimustest võivad aga osutuda veelgi keerulisemaks eetilised kaalutluskohad. "Kui me kasutame sellist süsteemi näiteks maastikupildi analüüsimiseks, võib tehisintellekt eksida sõjalise sihtmärgi tuvastamisel. Suuri andmehulki töödeldes võib mudel leida statistilisi seoseid, mis viivad kas suure eduni või katastroofilise ebaõnnestumiseni," tõdes Ramil. Tema sõnul peab olenemata süsteemist olema seetõttu alati otsustamisprotsessi kaasatud inimene, kes suudaks peatada süsteemi enne, kui see kontrolli alt väljub.
Ka Rene Väli leidis, et inimese roll on määrava tähtsusega. "Moraali ja eetika küsimus langeb alati kasutajale, sest tehisintellektil endal puudub tahe. Meie oleme need, kes paluvad tal infot töödelda ja hinnangut anda," selgitas ta. Ekspert lisas, et mida enam suudab masin asju teha, seda rohkem peab inimene mõtlema, mida ta sellel masinal teha palub.
Tehisintellekti professori Meelis Kulli sõnul peab neil teemadel ühiskondlikult arutama, sest ainult nii saab tehisintellektiga kaasnevaid ohte maandada. "Peame endale pidevalt aru andma, kuidas me ehitame tehisintellekti süsteeme selleks, et muuta elu ühiskonnas paremaks. Sellepärast on vaja pidevalt sellist arutelu pidada, et kus olukorras on mõistlik tehisintellekti kasutamine ja millal see ei ole," tõdes Kull.
Toimetaja: Jaan-Juhan Oidermaa



















