Digital Tlami Tank (TDT)

Star Trek Today: La Homaro Eble Ne Kapablas Kontroli Superinteligentan Artefaritan Inteligentecon?

La homaro eble ne povos regi superinteligentan artefaritan inteligentecon (AI), kredas la aŭtoroj de freŝa teoria studo. Cetere ni eble eĉ ne scias, ke ni havas tian AI (artefarita inteligenteco) kreis.
La rapida progreso de artefaritaj inteligentaj algoritmoj okazas antaŭ niaj okuloj. Maŝinoj venkas kontraŭ homoj senĉese kaj pokere, venkas spertajn ĉasaviadistojn en aera batalo, lernas de la fundo per provado kaj eraro, anoncas grandan revolucion en medicino kaj la vivsciencoj, faras diagnozojn same kiel kuracistojn kaj povas diferencigi inter birdoj pli bone ol homoj. Ĉi tio montras, kiel rapida progreso estas en multaj areoj.

Bildfonto: Pixabay


Star Trek Episode Reference: Generalo / Androidoj - AI

Kun ĉi tiu progreso venas la zorgo, ĉu ni povos regi artefaritan inteligentecon. Zorgoj levitaj de almenaŭ kelkaj jardekoj. Ni konas la famajn tri ekde 1942 Leĝoj de la Robotokiuj favoris la verkiston Isaac Asimov priskribita en sia novelo "La Ludo de Etikedo":

1) Roboto ne devas kaŭzi damaĝon al homo aŭ, per senmoveco, permesi damaĝon fariĝi al homo,

2) roboto devas obei la ordonojn de homo, kondiĉe ke ili ne malobservas la unuan leĝon, kaj

3) roboto devas protekti sin kondiĉe ke ĝi ne rompas la unuan aŭ duan leĝon.

Poste aldonis Asimov oni aldonas ĝeneralan leĝon 0: Roboto ne devas kaŭzi damaĝon al la homaro aŭ kaŭzi damaĝon per preterlasoEn 2014, filozofo Nick Bostrom, direktoro de la Instituto por la Estonteco de Homaro en Oksforda Universitato, studis kiel superinteligenta IA povas detrui nin, kiel ni povas regi ĝin, kaj kial diversaj metodoj de kontrolo eble ne funkcias. Bostrom identigis du problemojn kun kontrolado de AI. La unua estas kontrolo pri tio, kion la AI povas fari. Ekzemple, ni povas kontroli ĉu ĝi devas konektiĝi al la interreto. La dua estas kontrolo de tio, kion ĝi volas fari. Por regi lin ni devas instrui al li, ekzemple, la principojn de paca kunekzistado kun homoj. Kiel Bostrom rimarkis, superinteligenta IA probable povos superi ĉiajn limojn, kiujn ni volas meti sur ĝin, kion ĝi povas fari. Pri la dua problemo, Bostrom dubas, ke ni estas superinteligenta AI povus instrui ion ajn.

Nun Manuel Alfonseca kaj lia teamo de la Aŭtonoma Universitato de Madrido decidis pritrakti la problemon regi artefaritan inteligentecon. Li priskribis la rezultojn de sia laboro en la Journalurnalo de Artefarita Inteligenteco-Esplorado.

La hispanoj rimarkas, ke iu ajn algoritmo, kiu supozeble certigas, ke AI ne damaĝas homojn, devas unue simuli konduton, kiu povus rezultigi damaĝon al homo, por ke la maŝino povu rekoni kaj haltigi ĝin. Tamen, laŭ la esploristoj, neniu algoritmo povos simuli la konduton de artefarita inteligenteco kaj determini kun absoluta certeco ĉu aparta ago probable kaŭzos damaĝon al homoj. Tion jam pruvis Unua leĝo de Asimov estas problemo nekalkulebla.
Krome, ni eble eĉ ne scias, ke ni kreis superinteligentan maŝinon, konkludas la esploristoj. La kialo estas tio Teoremo de Rice, kiu diras, ke vi ne povas diveni la rezulton de komputila programo nur rigardante ĝian kodon.

Sed Alfonseca kaj liaj kolegoj ankaŭ havas bonajn novaĵojn. Nu, ni ne plu devas zorgi pri tio, kion faros super inteligenta AI. Fakte ekzistas tri ĉefaj limigoj pri la speco de esplorado, kiun faras hispanoj. Unue, tia superinteligenta IA aperos nur post 200 jaroj. Due, oni ne scias, ĉu eĉ eblas krei ĉi tian artefaritan inteligentecon, do maŝinon inteligentan en tiom da areoj, kiom homoj. Kaj trie, eĉ se ni eble ne povos regi superinteligentan AI, tamen povus esti eble regi artefaritan inteligentecon superinteligentan ene de mallarĝa gamo.