ពិភពលោកត្រូវតែសហការគ្នា ដើម្បីធានាដល់ការអភិវឌ្ឍដោយជោគជ័យនូវប្រព័ន្ធបច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិត AI ខណៈដែលកិច្ចប្រជុំសាកលលើការវិវត្តនៃបច្ចេកវិទ្យាដ៏លឿនរហ័សមួយនេះ ដែលត្រូវបានរៀបចំឡើងនៅក្នុងប្រទេសកូរ៉េខាងត្បូងបានបិទបញ្ចប់នោះ។ នេះបើតាមសេចក្តីរាយការណ៍របស់ទីភ្នាក់ងារសារព័ត៌មាន Reuters។
កិច្ចប្រជុំកំពូលស្តីពីបញ្ញាសិប្បនិម្មិត AI ក្នុងទីក្រុងសេអ៊ូលប្រទេសកូរ៉េខាងត្បូងនេះ ដែលមានប្រទេសអង់គ្លេសជាអ្នកចូលរួមរៀបចំផងដែរនោះ បានពិភាក្សាគ្នាទៅលើក្តីបារម្ភមួយចំនួន ដូចជាសន្តិសុខការងារ កម្មសិទ្ធិបញ្ញា និងវិសមភាព កាលពីថ្ងៃទី២២ ខែឧសភា ក្រោយពីក្រុមហ៊ុនបច្ចេកវិទ្យាចំនួន ១៦ កាលពីមួយថ្ងៃមុននោះ បានចុះហត្ថលេខាដោយស្ម័គ្រចិត្តលើកិច្ចព្រមព្រៀង ដើម្បីអភិវឌ្ឍបញ្ញាសិប្បនិម្មិត AI ដោយសុវត្ថិភាព។
ក្រុមហ៊ុនចំនួន ១៤ បានចុះហត្ថលេខាលើកិច្ចសន្យាដាច់ដោយឡែកមួយទៀត កាលពីថ្ងៃទី២២ ខែឧសភាកន្លងទៅ ដែលក្នុងនោះរួមមានក្រុមហ៊ុន Google (ឬ Alphabet) ក្រុមហ៊ុន Microsoft ក្រុមហ៊ុន OpenAI និងក្រុមហ៊ុនកូរ៉េចំនួន ៦ ផ្សេងទៀត ដើម្បីប្រើប្រាស់វិធីផ្សេងៗ ដូចជា watermark ដើម្បីជួយកត់ចំណាំពីមាតិកាណាដែលផលិតឡើងដោយកម្មវិធីបញ្ញាសិប្បនិម្មិត ក៏ដូចជាការធានាពីការបង្កើតការងារ និងជួយដល់ក្រុមមនុស្សដែលងាយរងគ្រោះក្នុងសង្គមជាដើម។
រដ្ឋមន្ត្រីក្រសួងវិទ្យាសាស្ត្រនិងបច្ចេកវិទ្យាសារគមនាគមន៍និងព័ត៌មានកូរ៉េខាងត្បូង លោក Lee Jong-Ho បាននិយាយនៅក្នុងបទសម្ភាស៍មួយជាមួយទីភ្នាក់ងារព័ត៌មាន Reuters ថា៖ «សហប្រតិបត្តិការមិនមែនជាជម្រើសឡើយ។ វាជាការចាំបាច់មួយ»។
លោក Lee និយាយថា៖ «កិច្ចប្រជុំកំពូលក្នុងក្រុងសេអ៊ូលនេះ បានផ្លាស់ប្តូរពីការពិភាក្សាស្តីពីសុវត្ថិភាពបន្ថែមរបស់បញ្ញាសិប្បនិម្មិត AI និងពិភាក្សាបន្ថែមពីនវានុវត្តន៍និងបរិយាបន្ន»។ លោកបន្ថែមទៀតថា លោករំពឹងថា ការពិភាក្សានៅក្នុងកិច្ចប្រជុំកំពូលបន្ទាប់ នឹងរួមបញ្ចូលនូវកិច្ចសហប្រតិបត្តិការកាន់តែច្រើនឡើងថែមទៀត លើការបង្កើតសុវត្ថិភាព AI។
កិច្ចប្រជុំកំពូល AI ជាសាកលលើកទី ១ ត្រូវបានធ្វើឡើងក្នុងប្រទេសអង់គ្លេសកាលពីខែវិច្ឆិកាឆ្នាំទៅ ហើយជំនួបកំពូលបន្ទាប់នឹងត្រូវធ្វើឡើងនៅក្នុងប្រទេសបារាំង ដែលទំនងនឹងកើតឡើងក្នុងឆ្នាំ ២០២៥។
ក្រុមមន្ត្រីនិងរដ្ឋមន្ត្រីមកពីប្រទេសជាច្រើន បានពិភាក្សាគ្នាកាលពីថ្ងៃទី ២២ ខែឧសភាកន្លងទៅ ស្តីពីកិច្ចសហប្រតិការរវាងការបង្កើតសុវត្ថិភាព AI ដែលគាំទ្រដោយរដ្ឋាភិបាលដើម្បីជួយគ្រប់គ្រងកម្មវិធីបច្ចេកវិទ្យាមួយនេះ។
ក្រុមអ្នកជំនាញបញ្ញាសិប្បនិម្មិត AI បានស្វាគមន៍លើវិធានការនានា ដែលត្រូវបានបង្កើតឡើងរហូតមកដល់ពេលនេះ ដើម្បីចាប់ផ្តើមគ្រប់គ្រងលើវិស័យបច្ចេកវិទ្យាមួយនេះ បើទោះបីជាបទបញ្ញត្តិមួយចំនួនតម្រូវឱ្យមានការអនុវត្តក៏ដោយ។
អ្នកស្រី Francine Bennett នាយកនៃវិទ្យាស្ថាន Ada Lovelace ដែលផ្តោតលើ AI និយាយថា៖ «យើងត្រូវធ្វើសកម្មភាពហួសពីការស្ម័គ្រចិត្ត។ អ្នកដែលរងការប៉ះពាល់ត្រូវបង្កើតគោលការណ៍តាមរយៈរដ្ឋាភិបាល»។
លោក Max Tegmark ប្រធានវិទ្យាស្ថានជីវិតអនាគត ដែលជាអង្គការមួយផ្តោតការយកចិត្តទុកដាក់លើហានិភ័យនៃប្រព័ន្ធ AI និយាយថា ៖ «ការផ្តល់សេវាកម្ម AI ត្រូវផ្សាភ្ជាប់ជាមួយនឹងបទដ្ឋានសុវត្ថិភាពជាចាំបាច់ មុនពេលចែកចាយលើទីផ្សារ ដើម្បីឱ្យក្រុមហ៊ុនទាំងអស់ត្រូវធ្វើឱ្យមានភាពស្មើគ្នារវាងសុវត្ថិភាពនិងប្រាក់ចំណេញ ដោយជៀសវាងប្រតិកម្មរិះគន់ពីមហាជន ទៅលើការផលប៉ះពាល់នានាដែលមិនត្រូវបានរំពឹងទុកជាមុននោះ។
រដ្ឋមន្ត្រីវិទ្យាសាស្ត្រកូរ៉េខាងត្បូងលោក Lee បាននិយាយថា ច្បាប់នានាតែងមានទំនោរដើរយឺតជាងល្បឿននៃការរីកចម្រើននៃបច្ចេកវិទ្យានានា ដូចជាបញ្ញាសិប្បនិម្មិត AI នេះជាដើម។
លោកបន្ថែមថា៖ «ប៉ុន្តែដើម្បីសុវត្ថិភាពប្រើប្រាស់ដល់សាធារណជននោះ ត្រូវមានច្បាប់និងគោលការណ៍នានាដែលអាចបត់បែន សម្រាប់ការអនុវត្ត៕
ប្រែសម្រួលដោយលោក ជ្រា វណ្ណារិទ្ធ