Digital Tlami Tank (TDT)

Kiel superrugi artefaritan inteligentecon - homon kontraŭ maŝino.

AI-komputilaj sistemoj trovas sian vojon en multajn areojn de niaj vivoj kaj ofertas grandan potencialon, de memveturaj veturiloj ĝis helpado de kuracistoj kun diagnozoj kaj aŭtonomaj serĉaj kaj savaj robotoj.

Tamen, unu el la ĉefaj nesolvitaj problemoj, precipe kun la branĉo de AI konata kiel "neŭralaj retoj", estas ke sciencistoj ofte ne povas klarigi kial aferoj fuŝiĝas. Ĉi tio ŝuldiĝas al manko de kompreno pri la decidprocezo ene de AI-sistemoj. Ĉi tiu problemo estas konata kiel la problemo "nigra skatolo".

Kiu estas pli lerta?

Nova 15-monata esplorprojekto de la Universitato de Lancaster, en kiu ankaŭ partoprenas la Universitato de Liverpool, celas malŝlosi la sekretojn de la problemo pri nigra kesto kaj trovi novan manieron "Profunda Lernado"de AI-komputilaj modeloj, kiuj faras decidojn travideblaj kaj klarigeblaj.

La projekto "Al respondecaj kaj klarigeblaj aŭtonomaj robotaj lernaj sistemoj"disvolvos serion de sekurecaj kontrolaj kaj testaj proceduroj por disvolvi algoritmojn de artefarita inteligenteco. Ĉi tiuj helpos certigi, ke la decidoj faritaj de la sistemoj estas fortikaj kaj klarigeblaj.

Bildfonto: Pixabay


trejnado

La esploristoj uzos teknikon nomatan "inversa trejnado". Ĝi konsistas en prezenti la sistemon en donita situacio, kie ĝi lernas kiel fari agon - ekz. B. Detekti kaj levi objekton. La esploristoj tiam ŝanĝas diversajn elementojn de la scenejo kiel koloro, formo, medio kaj observas kiel la sistemo lernas per provo kaj eraro. La esploristoj kredas, ke ĉi tiuj observoj povas konduki al pli bona kompreno pri kiel la sistemo lernas kaj komprenas la Decida procezo koncedita.


Evoluigante manierojn krei sistemojn kun neŭralaj retoj, kiuj povas kompreni kaj antaŭdiri decidojn, esplorado estos ŝlosilo por malŝlosi aŭtonomajn sistemojn en sekurecaj kritikaj lokoj kiel veturiloj kaj robotoj en industrio.

D-ro. Wenjie Ruan, universitata lektoro ĉe la Lernejo pri Komputado kaj Komunikado de Lancaster University kaj ĉefa esploristo pri la projekto, diris, "Kvankam la Profunda Lernado Ĉar unu el la plej rimarkindaj Artefaritaj Inteligentaj teknikoj ege sukcesis en multaj aplikoj, ĝi havas siajn proprajn problemojn kiam ĝi estas uzata en sekurec-kritikaj sistemoj, inkluzive de maldiafanaj decidaj mekanismoj kaj vundebleco al kontraŭaj atakoj. "Ĉi tiu projekto estas bonega okazo por ni fermi la esploran breĉon inter profundaj lernaj teknikoj kaj sekurecaj kritikaj sistemoj.