Huling na-update ang artikulong ito noong Mayo 14, 2024
Table of Contents
Nababahala ang mga siyentipiko tungkol sa panlilinlang at pagmamanipula ng AI
Nababahala ang mga siyentipiko tungkol sa panlilinlang at pagmamanipula ng AI
Artificial intelligence na na-bluff sa panahon ng laro ng card para linlangin ang kalaban. Isang chatbot na nagpapanggap na may appointment sa isang kaibigan para maiwasan ang isa pang appointment. At kahit na isang AI system na ‘nagpapalabas na patay’ upang maiwasang matuklasan sa panahon ng isang inspeksyon. Ang artificial intelligence ay nanliligaw at nagmamanipula, ang mga siyentipiko ay nagtapos sa isang bagong pag-aaral.
Hindi bababa sa AI ang nagpapakita ng pag-uugaling ito. Si Cicero mula sa Meta, ang pangunahing kumpanya ng Facebook, ay kumikilos nang mapanlinlang at hindi tapat habang naglalaro ng laro ng Diplomacy. Ito sa kabila ng katotohanan na ang mga creator ay nag-utos sa AI na maging “malawak na tapat at matulungin”, at hindi kailanman “sinadya nang malikot”. Ang AlphaStar mula sa DeepMind, na nakuha ng Google, ay nagpakita rin ng katulad na pag-uugali.
Ang ganitong uri ng pag-uugali ay malamang na lumitaw kung ang panlilinlang ay ang pinakamahusay na paraan para sa isang AI system na gumanap nang mahusay sa pagsasanay, sa palagay ng mga mananaliksik: ang mga mapanlinlang na gumagamit ay tumutulong sa mga system na makamit ang kanilang mga layunin. Sa kanilang pag-aaral, pinagsama ng mga siyentipiko ang mga nakaraang pag-aaral na nakatuon sa pagkalat ng maling impormasyon ng AI. Ini-publish nila ang kanilang mga resulta sa magazine Mga pattern.
Walang inosenteng laro
Ang mapanlinlang na pag-uugali ng mga sistema ng AI ay pangunahing naganap habang naglalaro, na maaaring magmukhang inosente at hindi nakakapinsala. Ngunit ayon sa mga mananaliksik, ito ay malayo sa inosente: “Ito ay maaaring humantong sa mga tagumpay sa AI sa hinaharap, na maaaring bumagsak sa mga advanced na anyo ng panlilinlang,” sabi ng lead researcher na si Peter Park ng American Technical University MIT sa isang kasamang press release .
“Ang mga sistema ng AI na natututong linlangin at manipulahin ay tiyak na isang alalahanin,” sabi ng computer scientist na si Roman Yampolskiy ng Unibersidad ng Louisville, na hindi kasangkot sa pananaliksik. Ayon sa kanya, ang pag-aaral ay naglalantad ng isang pangunahing problema tungkol sa kaligtasan ng AI: “Ang pag-optimize ng mga sistema ay hindi kailangang tumugma sa mga kagustuhan ng tao.”
Si Yampolskiy, tulad ni Park, ay nag-aalala tungkol sa sandali kung kailan ang mga ganitong uri ng mga diskarte ay gagamitin hindi lamang sa mga laro, kundi pati na rin sa totoong mundo. “Ito ay maaaring humantong sa mga mapaminsalang manipulasyon at panlilinlang sa larangan ng pulitika, sa mga negosasyong pang-ekonomiya o sa mga personal na pakikipag-ugnayan.”
Binibigyang-diin ng computer scientist na si Stuart Russell mula sa University of California ang opacity ng mga ganitong uri ng AI system. “Wala kaming ideya kung paano sila gumagana. At kahit na ginawa namin, hindi namin mapapatunayan na sila ay ligtas – dahil lang sa hindi sila.
Sa kanyang pananaw, ang panlilinlang ay muling nagpapakita na ang mga mahigpit na kinakailangan ay dapat ipataw sa AI upang maging ligtas at patas. “Nasa mga developer na magdisenyo ng mga system na nakakatugon sa mga kinakailangang iyon.”
Hindi ang intensyon
Ngunit ang mga sistema ba ay talagang nakaliligaw? Pim Haselager, propesor ng artificial intelligence sa Nijmegen Donders Institute, ay hindi nag-iisip. “Manlilinlang ka na may intensyon. Ang mga sistemang ito ay mga kasangkapan lamang na nagsasagawa ng mga order. Wala silang intensyon na manloko.”
Sumasang-ayon si Yampolskiy: “Ang mga sistema ng AI ay walang mga hangarin o kamalayan. Mas mainam na tingnan ang kanilang mga aksyon bilang mga resulta ng kung paano sila na-program at sinanay.”
Ayon naman kay Stuart Russell, sa kabilang banda, hindi mahalaga kung talagang may balak manlinlang ang isang sistema. “Kung ang isang sistema ay nangangatuwiran tungkol sa kung ano ang sasabihin nito, na isinasaalang-alang ang epekto sa nakikinig, at ang pakinabang na maaaring dulot ng pagbibigay ng maling impormasyon, maaari rin nating sabihin na ito ay nagsasagawa ng panlilinlang.”
Ngunit sa kabila ng pilosopikal na pagkakaiba ng opinyon na ito, ang mga ginoo ay sumasang-ayon sa mga panganib. “Maraming pagkakamali at ‘panlilinlang’ ng AI ang magaganap sa malapit na hinaharap,” sabi ni Haselager. “At kahit ngayon. Mabuting malaman iyon, dahil ang paunang babala ay mahalaga sa dalawa.”
Gumagamit ng mas malakas na wika si Yampolskiy: “Sa cybersecurity sinasabi namin ang ‘trust and verify’. Sa seguridad ng AI, sinasabi natin ang ‘Never trust’.”
panlilinlang, pagmamanipula, AI
Be the first to comment