ភ្ជាប់​ទៅ​គេហទំព័រ​ទាក់ទង

ព័ត៌មាន​​ថ្មី

ច្បាប់​សិទ្ធិ​មនុស្ស​អន្តរជាតិ​អាច​ជា​គំរូ​សម្រាប់​ក្រមសីលធម៌​បញ្ញានិម្មិត AI


រូបឯកសារ៖ លោក David Hanson ស្ថាបនិកក្រុមហ៊ុន Hanson Robotics បាននិយាយជាមួយមនុស្សយន្តរបស់ក្រុមហ៊ុនរបស់គាត់ឈ្មោះ​ សូហ្វីយ៉ា ដែលជាមនុស្សយន្តបំពាក់ដោយបញ្ញានិម្មិត AI នៅហុងកុង។ ថ្ងៃទី ២៨ ខែកញ្ញាឆ្នាំ ២០១៧។ (AP Photo/Kin Cheung)
រូបឯកសារ៖ លោក David Hanson ស្ថាបនិកក្រុមហ៊ុន Hanson Robotics បាននិយាយជាមួយមនុស្សយន្តរបស់ក្រុមហ៊ុនរបស់គាត់ឈ្មោះ​ សូហ្វីយ៉ា ដែលជាមនុស្សយន្តបំពាក់ដោយបញ្ញានិម្មិត AI នៅហុងកុង។ ថ្ងៃទី ២៨ ខែកញ្ញាឆ្នាំ ២០១៧។ (AP Photo/Kin Cheung)

សាកលវិទ្យាល័យ Stanford បាន​ប្រមូល​ផ្តុំ​ក្រុម​អ្នក​ដឹកនាំ​បច្ចេកវិទ្យា AI អ្នក​នយោបាយ និង​អ្នក​ជំនាញ​មក​ពី​ជុំវិញ​ពិភពលោក ដើម្បី​ស្វែង​រក​វិធីសាស្រ្ត​បង្កើត​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត A.I. ប្រកប​ដោយ​ក្រមសីលធម៌។ 

ភាព​ជឿនលឿន​នៃ​បច្ចេកវិទ្យា​បញ្ញានិម្មិត A.I. បាន​នាំ​មក​នូវ​ការ​រំភើប​អំពី​អនាគត​នៃ​បែប​បទ​រស់នៅ ធ្វើការ​ និង​កម្សាន្ត​របស់​យើង។ ប៉ុន្តែ​បញ្ហា​ប្រឈមធ្ងន់ធ្ងរថ្មីៗ​នេះ ដែល​មាន​ដូច​ជា​ការ​ផ្សព្វផ្សាយ​ព័ត៌មាន​ក្លែងក្លាយ​ ការ​បាត់បង់​ឯកជនភាព ការ​សម្រេច​ចិត្ត​លំអៀង​របស់​បញ្ញានិម្មិត A.I. និង​អាវុធ​ស្វ័យប្រវត្តិ ក៏​បាន​នាំ​មក​នូវ​ការ​ព្រួយ​បារម្ភខាង​សីលធម៌​ លើ​ការ​អភិវឌ្ឍ​បច្ចេកវិទ្យា​ដ៏​មាន​អានុភាព​ខ្លាំង​ខ្លា​នេះ​ផង​ដែរ។ សាកលវិទ្យាល័យ Stanford បាន​ប្រមូល​ផ្តុំ​ក្រុម​អ្នក​ដឹកនាំ​បច្ចេកវិទ្យា AI អ្នក​នយោបាយ និង​អ្នក​ជំនាញ​មក​ពី​ជុំវិញ​ពិភពលោក ដើម្បី​ស្វែង​រក​វិធីសាស្រ្ត​បង្កើត​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត A.I. ប្រកប​ដោយ​ក្រមសីលធម៌។

បច្ចេកវិទ្យា​បញ្ញានិម្មិត ឬ Artificial Intelligence ហៅ​កាត់​ថា AI សំដៅ​លើ​បច្ចេកវិទ្យា​ដែល​បង្កើត​ម៉ាស៊ីន​ឆ្លាត​វៃ​ជាង​មនុស្ស។ បច្ចេកវិទ្យា​បញ្ញានិម្មិត AI នេះ ចាំ​បាច់​ត្រូវ​មាន​ក្រមសីលធម៌។

ក្រុម​អ្នក​ជំនាញនៅ​សន្និសីទ​មួយ​ស្តី​ពី​ក្រម​សីសធម៌ AI ក្នុង​សាកល​វិទ្យាល័យ Stanford និយាយ​ថា បច្ចេកវិទ្យា​បញ្ញានិម្មិត AI កំពុង​សម្រេច​ចិត្ត​ និង​ធ្វើ​ការ​ជំនួស​មនុស្ស​លើ​វិស័យ​ជា​ច្រើន រាប់​ចាប់​តាំង​ពី​ការ​បើក​បរ​រថយន្ត​និង​ការ​ប្រយុទ្ធ​ប្រឆាំង​នឹង​ជំងឺ រហូត​ដល់​ការ​រៀបចំ​ព័ត៌មាន​ដែល​មនុស្ស​ឃើញ​លើ​អ៊ីនធឺណិត។

ពួកគេ​ទទូច​ថា​ប្រព័ន្ធ​បញ្ញា​និម្មិត AI ត្រូវតែ​រៀន​ការពារ​គោល​សីលធម៌​របស់​មនុស្ស។​

លោក​ស្រី Eileen Donahoe អតីត​ឯក​អគ្គរដ្ឋទូត​សហរដ្ឋ​អាមេរិក​ប្រចាំ​ក្រុម​ប្រឹក្សា​សិទ្ធិ​មនុស្ស​របស់​អង្គការ​សហប្រជាជាតិ។ (ចាប ចិត្រា/VOA)
លោក​ស្រី Eileen Donahoe អតីត​ឯក​អគ្គរដ្ឋទូត​សហរដ្ឋ​អាមេរិក​ប្រចាំ​ក្រុម​ប្រឹក្សា​សិទ្ធិ​មនុស្ស​របស់​អង្គការ​សហប្រជាជាតិ។ (ចាប ចិត្រា/VOA)

លោក​ស្រី Eileen Donahoe អតីត​ឯក​អគ្គរដ្ឋទូត​សហរដ្ឋ​អាមេរិក​ប្រចាំ​ក្រុម​ប្រឹក្សា​សិទ្ធិ​មនុស្ស​របស់​អង្គការ​សហប្រជាជាតិ​ប្រាប់ VOA ថា៖

‍«យើង​មាន​ក្របខ័ណ្ឌ​នៃ​គោលការណ៍​សីលធម៌​ដែល​យើង​គួរ​តែ​យក​មក​ធ្វើ​ជា​គំរូ​គឺ​ក្របខ័ណ្ឌ​សិទ្ធិ​មនុស្ស​អន្តរជាតិ​ ឬ International Human Rights Frameworkដែល​យើង​មាន​ស្រាប់‍»។

ក្រុម​អ្នក​ជំនាញ​ណែ​នាំ​ថា ក្របខ័ណ្ឌ​សិទ្ធិ​មនុស្ស​អន្តរជាតិ​ ដែល​កើត​ចេញ​ពី​សេចក្ដី​ប្រកាស​ជា​សកល​ស្តី​ពី​សិទ្ធិ​មនុស្ស​ឆ្នាំ ១៩៤៨ ​អាច​ផ្ដល់​នូវ​ក្របខ័ណ្ឌ​អភិបាលកិច្ច​មួយ​ដើម្បី​គ្រប់គ្រង បច្ចេកវិទ្យា​បញ្ញានិម្មិត AI។

លោក​ស្រី Eileen Donahoe ពន្យល់​បន្ត​ថា៖

«នេះ​មាន​ន័យ​ថា ​រដ្ឋាភិបាល​នានា​មាន​កាតព្វកិច្ច​ផ្លូវ​ច្បាប់ ហើយ​វិស័យ​ឯកជន​មាន​ការ​ទទួល​ខុស​ត្រូវ ដើម្បី​ការពារ​និង​គោរព សិទ្ធិ​មនុស្ស និង​ដើម្បី​ដោះស្រាយ​ការ​រំលោភ​សិទ្ធិ​មនុស្ស​ផ្សេងៗ‍»។

ការ​អំពាវ​នាវ​ឱ្យ​មាន​បច្ចេកវិទ្យា​បញ្ញានិម្មិត AI ដែល​ការពារ​សិទ្ធិ​មនុស្ស គឺ​ជា​ការ​ផ្ទុយ​ស្រលះ​ទៅ​នឹង​គោល​ជំហរ​របស់​បណ្ដា​ក្រុមហ៊ុន​បច្ចេកវិទ្យា​ ក្នុង​តំបន់ Silicon Valley ដែល​ថា​ការ​គ្រប់​គ្រង់​លើ​បច្ចេកវិទ្យា​របស់​រដ្ឋាភិបាល​នឹង​រារាំង​ដល់​នវានុវត្តន៍​ឬ​ការ​ច្នៃប្រឌិត​ថ្មីៗ​នានា។

លោក​ស្រី Marietje Schaake អតីត​សមាជិក​សភា​អឺរ៉ុប។ (ចាប ចិត្រា/VOA)
លោក​ស្រី Marietje Schaake អតីត​សមាជិក​សភា​អឺរ៉ុប។ (ចាប ចិត្រា/VOA)

‍លោក​ស្រី Marietje Schaake អតីត​សមាជិក​សភា​អឺរ៉ុប​លើក​ឡើង​ថា៖

«ការ​ប្រកាន់​ជំហរ​បែប​នេះ បង្កប់​ន័យ​ថាការ​ច្នៃប្រឌិត​ថ្មី​មាន​សារៈ​សំខាន់​ជាង​ប្រជាធិបតេយ្យ​ឬ​វិធាន​នៃ​ច្បាប់ ដែល​ជា​មូលដ្ឋាន​គ្រឹះ​នៃ​គុណភាព​ជីវិត​របស់​យើង»។

លោក​ស្រី Marietje Schaake បន្ត​ថា៖

«ខ្ញុំ​ជឿ​ជាក់​ថា តាម​ពិត​បញ្ហា​ប្រឈម​ធ្ងន់ធ្ងរ​មួយ​ចំនួន​ក្នុង​សង្គម​ និង​អ៊ីនធឺណិត​បើក​ចំហ​របស់​យើង​សព្វ​ថ្ងៃនេះ មិន​មែន​កើត​ចេញ​ពី​ការ​ដាក់​បទប្បញ្ញត្តិ​លើ​បច្ចេក​វិទ្យា​តឹង​រ៉ឹង​ជ្រុល​នោះ​ទេ តែ​គឺ​កើត​ចេញ​ពី​ការ​ដាក់​បទប្បញ្ញត្តិ​តិច​តួចពេក»។

ការ​រីក​ចម្រើន​យ៉ាង​ឆាប់​រហ័ស​នៃ​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI ដោយ​ក្រុមហ៊ុន​ដូចជា Google Facebook Baidu និង Tecent បាន​ដើរ​ហួល​បទប្បញ្ញត្តិ​យ៉ាង​ឆ្ងាយ ហើយ​លាត​ត្រដាង​នូវ​បញ្ហា​ប្រឈម​ដូចជា​ព័ត៌មានក្លែងក្លាយ ការ​រំលោភ​បំពាន​លើ​ឯកជនភាព ការ​សម្រេច​ចិត្ត​ដោយ​លំអៀង​នៃ​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI និង​គ្រោះថ្នាក់​ពី​ស្វ័យប្រវត្តិកម្ម​នៃ​អាវុធ។

ក្របខ័ណ្ឌ​អភិបាលកិច្ច​ពិភពលោក​ដើម្បី​ធានា​ការ​អនុវត្ត​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI ដោយ​មាន​ក្រមសីលធម៌​គឺ​ជា​ភាព​ចាំ​បាច់​មួយ។

លោក Eric Schmidt អតីត​នាយក​ប្រតិបត្តិ​ក្រុមហ៊ុន Google និង​ប្រធាន​គណៈកម្មាធិការ​សន្តិសុខ​ជាតិ​អាមេរិក​ទទួល​បន្ទុក​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI។ (ចាប ចិត្រា/VOA)
លោក Eric Schmidt អតីត​នាយក​ប្រតិបត្តិ​ក្រុមហ៊ុន Google និង​ប្រធាន​គណៈកម្មាធិការ​សន្តិសុខ​ជាតិ​អាមេរិក​ទទួល​បន្ទុក​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI។ (ចាប ចិត្រា/VOA)

លោក Eric Schmidt អតីត​នាយក​ប្រតិបត្តិ​ក្រុមហ៊ុន Google និង​ជា​ប្រធាន​គណៈកម្មាធិការ​សន្តិសុខ​ជាតិ​អាមេរិក​ទទួល​បន្ទុក​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI ជឿ​ថា៖

«យើង​មក​ទី​នេះ​ ជា​ចម្បង​ព្រោះ​យើង​ចង់​ឱ្យ​មាន​ការ​ជជែក​ដេញ​ដោល​គ្នា​ដោយ​បើក​ចំហ។ យើង​ចង់​ធ្វើ​ឱ្យ​ប្រាកដ​ថា​ប្រព័ន្ធបញ្ញា​និម្មិត AI ដែល​យើង​កំពុង​បង្កើត ​ត្រូវ​បាន​បង្កើត​ឡើង​ដោយ​ផ្អែក​លើ​គោល​សីលធម៌​របស់​យើង គឺ​គោល​សីលធម៌​របស់​មនុស្ស‍»។

លោក Eric Schmidt ដែល​ធ្លាប់​ដឹក​នាំ​ក្រុមហ៊ុន Google ជាង​១០​ឆ្មាំ ហើយ​ឥឡូវ​នេះ​កំពុង​ដឹក​នាំ​គណៈកម្មាធិការ​អាមេរិក​ស្តី​ពី​បច្ចេកវិទ្យា​បញ្ញា​និម្មិត AI បាន​បដិសេធ​មិន​ឆ្លើយ​សំណួរ​របស់ VOA ទាក់​ទង​នឹង​ការ​ការ​អនុវត្តន៍​សីលធម៌​នៅ​ក្រុមហ៊ុន Google៕

XS
SM
MD
LG