Ni Pesach Benson • Agosto 7, 2025
Jerusalem, 7 Agosto, 2025 (TPS-IL) — Habang ang mga generative AI tools tulad ng ChatGPT ay naging bahagi na ng pang-araw-araw na buhay, may isang Israeli legal scholar na nagpapalagay ng agarang alalahanin: maaaring tahimik na pinauubos ng mga sistemang ito ang ating pananaw sa mundo.
Isang bagong nailathalang artikulo sa Indiana Law Journal, ni Prof. Michal Shur-Ofry ng Hebrew University of Jerusalem, na kasalukuyang Visiting Faculty Fellow sa NYU’s Information Law Institute, ay nagtatala na ang malalaking language models (LLMs) ay tila naglilikha ng standardisadong, pangunahing nilalaman — sa gantimpala ng kultural na pagkakaiba at demokratikong diskurso.
“Kung lahat ay nakakakuha ng parehong uri ng pangunahing mga sagot mula sa AI, maaaring limitado ang iba’t ibang mga boses, mga kuwento, at mga kultura na ating nae-expose,” sabi ni Shur-Ofry. “Sa paglipas ng panahon, maaaring ito ay pinauubos ang ating sariling mundo ng mga maiisip na mga bagay.”
Ang kanyang pag-aaral ay sumuri kung paano ang mga sagot na nilikha ng AI, bagaman madalas na kapaki-pakinabang at mapanlikha, ay kadalasang paulit-ulit at kultural na limitado. Halimbawa, nang tanungin tungkol sa mga mahahalagang personalidad ng ika-19 siglo, ang ChatGPT ay nagbalik ng mga pangalan tulad nina Abraham Lincoln, Charles Darwin, at Queen Victoria — kilalang tao, ngunit karamihang Anglo-centric. Isang katulad na bias ang lumitaw nang ang modelo ay inutusan na maglista ng pinakamahusay na palabas sa telebisyon: ang mga resulta ay labis na nakatuon sa mga hit sa wikang Ingles, na hindi kasama ang mga hindi Kanluranin at hindi Ingles na alternatibo.
Ang problema, paliwanag ni Shur-Ofry, ay nakaugat sa paraan kung paano itinatayo ang mga sistemang AI na ito. Ang LLMs ay sinasanay sa malalaking dami ng teksto sa internet, na karamihang nasa Ingles at nagpapakita ng dominanteng kultural na mga norma. Ang mga modelo ay gumagamit ng mga estadistikang padrino upang tantiyahin ang mga posibleng mga sagot, kaya ang kung ano ang pinakakaraniwan ay lumilitaw ng pinakamadalas. Habang ang paraang ito ay nagpapataas ng kahusayan at kahusayan, ito ay naglalagay sa tabi ng mga pananaw mula sa mas maliit na mga linggwistikong at kultural na komunidad. Sa paglipas ng panahon, habang ang mga LLMs ay kumakain sa kanilang sariling mga output at patuloy na sumasanay sa umiiral na nilalaman sa digital, ang epekto ng pinauubos ay nagpapalala.
“Ito ay hindi lamang isang teknikal na aberya,” bala ni Shur-Ofry. “Ito ay maaaring magkaroon ng malalim na mga konsekwensya sa lipunan. Ito ay maaaring bawasan ang kultural na pagkakaiba, magpahina sa panlipunang pagtanggap, at magpahina sa mga pundasyon ng demokratikong usapan at kolektibong alaala.”
Upang labanan ang trend na ito, inirerekomenda ni Shur-Ofry ang isang bagong legal at etikal na prinsipyo para sa pamamahala ng AI: “multiplicity.” Ang konseptong ito ay nagsasaad na ang mga tool ng AI ay dapat na itayo sa paraan na aktibong sumusuporta sa pagkakaroon ng iba’t ibang mga pananaw at mga kuwento, sa halip na bumabalik lamang sa pinakamadalas na sagot ayon sa estadistika.
“Kung nais nating ang AI ay maglingkod sa lipunan, hindi lamang sa kahusayan, kailangan nating maglaan ng puwang para sa kumplikasyon, nuwansa, at kultural na pagkakaiba,” sabi niya. “Ito ang tungkol sa multiplicity — pagprotekta sa buong spectrum ng karanasan ng tao sa isang mundo na pinapatakbo ng AI.”
Binibigyang-diin din ng papel ang dalawang pangunahing paraan upang itaguyod ang multiplicity. Una, sa pamamagitan ng pagtatayo ng mga feature sa mga plataporma ng AI na nagbibigay-daan sa mga gumagamit na madali nilang palawakin ang pagkakaiba sa output — tulad ng pag-aayos ng “temperature” ng modelo, isang setting na nagpapalawak ng saklaw ng mga nilikhang sagot. Pangalawa, sa pamamagitan ng pagbuo ng isang ekosistema ng magkalabang mga sistema ng AI na nag-aalok sa mga gumagamit ng kakayahan na humanap ng “second opinions” at mga alternatibong pananaw.
Binibigyang-diin din ni Shur-Ofry ang kahalagahan ng AI literacy. “Kailangan ng mga tao ng pangunahing pang-unawa kung paano gumagana ang mga LLMs at kung bakit ang kanilang mga output ay maaaring magpakita ng mga popular, sa halip na balanseng o kasali, na mga pananaw,” sabi niya. “Ang kaalaman na ito ay makakatulong sa mga gumagamit na magtanong ng mga sumunod na tanong, ihambing ang mga sagot, at mag-isip nang mas maingat tungkol sa impormasyon na kanilang natatanggap. Ito ay nagtutulak sa kanila na tingnan ang AI hindi bilang isang solong pinagmulan ng katotohanan, kundi bilang isang kasangkapan — na kanilang maaring tutulan sa paghabol ng mas makapal, mas pluralistikong kaalaman.”
Siya ay kasalukuyang nakikipagtulungan kina Dr. Yonatan Belinkov at Adir Rahamim ng Computer Science Department ng Technion, at Bar Horowitz-Amsalem ng Hebrew University, upang ipatupad ang mga ideyang ito sa praktika.






























