kirjoituksia yksiöstä memento mori

Huipputiedemiehet: autonominen ase on huomisen Kalashnikov?

International Joint Conference on Artificial Intelligence (IJCAI) on tekoälyn ja robotiikan huippututkijoiden ja harrastajien kansainvälinen konferenssi. IJCAI on järjestänyt konferensseja vuodesta 1969. Tiedeyhteisön kokoontuminen on nyt käynnissä Buenos Airesissa, Argentiinassa.

Tänään IJCAI:n konferenssissa on alan tutkijoiden toimesta julkaistu avoin kirje, jossa tekoälyn kehittäminen sotilaallisiin tarkoituksiin pyritään estämään. Autonomiset, tekoälyllä toimivat aseet valitsevat kohteen ja ryhtyvät taisteluun itsenäisesti ilman, että ihminen vaikuttaa niihin. Autonomisia aseita on kuvailtu kolmanneksi vallankumoukseksi ruudin ja ydinaseiden jälkeen. Kirjeen allekirjoittajista löytyy useita arvostettuja tiedemiehiä, kuten muun muassa maailmankuulu fyysikko Stephen Hawking.

Kirjeen mukaan ihmiskunnan tämänhetkinen avainkysymys on aloitammeko globaalin tekoälyllä toimivien aseiden kilpavarustelun vai pyrimmekö estämään sen. Kehitys on edennyt siihen pisteeseen, että autonomisten aseiden tuottaminen sotilaallisiin tarkoituksiin on mahdollista lähiaikoina. Puhutaan enää vuosista, ei vuosikymmenistä.

Argumentit autonomisten aseiden puolesta ja vastaan ovat olleet moninaiset; ihmissotilaat voitaisiin vaihtaa robotteihin, jolloin taisteluissa mahdollisesti saataisiin vähemmän uhreja, mutta tämä voisi toisaalta alentaa kynnystä taisteluiden syntymiseen. 

Kirjeessä varoitetaan, että autonomisten aseiden kilpavarustelu tulee olemaan väistämätön ja globaali, jos jokin isoista sotilasmahdeista pitää päämääränään tekoälyn kehittämisen sotilaallisiin tarkoituksiin. Toisin kuin ydinaseet, tekoälyllä toimivat aseet ovat halpoja tuottaa ja niiden materiaali helposti saatavissa. Näin autonomisista aseista tulee huomisen Kalashnikoveja, kirjeessä sanotaan. Tällöin on enää ajan kysymys ennen kuin aseet päätyvät pimeille markkinoille terroristien ja diktaattorien käsiin. Siksi tiedeyhteisö katsoo, ettei autonomisten aseiden kehittämisestä ja kilpavarustelusta ole hyötyä ihmiskunnalle. 

Suurin osa alan tiedeyhteisöstä ei halua olla mukana kehittämässä autonomisia aseita, kuten ei myöskään biologit eikä kemistit halua tahrata oman alansa tiedeyhteisöä kehittämällä julkisesti kemiallisia aseita. Kirje vaatiikin, että keskityttäisiin jatkossakin tekoälyn kehittämiseen vain siten, mikä on ihmiskunnalle hyödyllistä. Tekoäly voisi monin tavoin tehdä konfliktialueista turvallisempia ihmisille ilman, että se loisi jälleen uusia työkaluja ihmisten tappamiseen.

Tämä tiedeyhteisön ulostulo tuo mieleen Bertrand Russellin ja Albert Einsteinin julkaiseman manifestin vuodelta 1955, jossa varoitettiin ydinaseiden vaaroista ja kehotettiin maailmaa ratkaisemaan konfliktit rauhanomaisin keinoin.

Kirjeen voi jokainen asian tärkeäksi kokeva allekirjoittaa.

Kirjoitin myös huhtikuun lopulla Puheenvuoroon tekoälystä ja modernista asetekniikasta.

Piditkö tästä kirjoituksesta? Näytä se!

2Suosittele

2 käyttäjää suosittelee tätä kirjoitusta. - Näytä suosittelijat

NäytäPiilota kommentit (1 kommentti)

Käyttäjän VelluHeino kuva
Vellu Heino

Tuli tarve linkittää tämä Hedgesin kirjoitus:

http://www.truthdig.com/report/item/all_forms_of_l...

Jos sillai alkaa pisteitä yhdistelemään,niin olemmehan jo varsin pitkällä tuossakin toiminnassa,varoituksista huolimatta.

Toimituksen poiminnat