ប្រទេសចិន ៖ រដ្ឋាភិបាលចិនបានកំណត់ឱ្យអនុវត្តច្បាប់ថ្មីគ្រប់គ្រងបច្ចេកវិទ្យា AI ដើម្បីការពារកុ.មារ និងយុវជនពីគ្រោះថ្នា.ក់ដោយសារការណែនាំមិនត្រឹមត្រូវរបស់បច្ចេកវិទ្យា ដែលច្បាប់ថ្មីតឹងរ៉ឺងជាងមុនសម្រាប់ការពារអ្នកប្រើប្រាស់មិនឱ្យជឿតាមការណែនាំរបស់ Chatbot ឈានទៅធ្វើបា.បខ្លួនឯង ឬប្រព្រឹត្តអំពើហិង្សា ។ នេះបើតាមការចុះផ្សាយរបស់សារព័ត៌មានបរទេសកាលពីថ្ងៃទី៣០ ខែធ្នូ ឆ្នាំ២០២៥ ។

ក្រៅពីនេះ ច្បាប់ថ្មីកំណត់ឱ្យក្រុមហ៊ុនបច្ចេកវិទ្យានានាត្រួតពិនិត្យឱ្យប្រាកដចិត្តថា បច្ចេកវិទ្យា AI របស់ខ្លួនមិនណែនាំឱ្យអ្នកប្រើប្រាស់លេងល្បែង ។ ការអនុវត្តច្បាប់ថ្មី គឺក្រោយពីមានការបង្ហាញ Chatbot ជាច្រើនទាំងនៅចិន និងទូទាំងពិភពលោក ព្រមទាំងអនុវត្តជាមួយផលិតផល និងសេវាកម្មបច្ចេកវិទ្យា AI ទាំងអស់នៅចិន ។ នេះជាការគ្រប់គ្រងបច្ចេកវិទ្យា AI ដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័ស និងត្រូវបានត្រួតពិនិត្យយ៉ាងតឹងរ៉ឹងដើម្បីសុវត្ថិភាពអ្នកប្រើប្រាស់ ។

នាយកដ្ឋានគ្រប់គ្រងអ៊ីនធើរណេតចិន (CAC) បានផ្សព្វផ្សាយសេចក្តីព្រាងច្បាប់ថ្មីកាលពីចុងសប្តាហ៍ទី៤ ខែធ្នូ ដោយរួមបញ្ចូលទាំងវិធានការការពារកុមារ ព្រមទាំងកំណត់ឱ្យក្រុមហ៊ុនបច្ចេកវិទ្យាបង្កើតមុខងារ (Function) ផ្ទាល់ខ្លួន, កំណត់រយៈពេលប្រើប្រាស់ និងត្រូវទទួលការយល់ព្រមពីអាណាព្យាបាលជាមុន ទើបកុមារ និងយុវជនមានសិទ្ធិប្រើប្រាស់ ។ ក្រុមហ៊ុនបច្ចេកវិទ្យាត្រូវមានបុគ្គលិកជាមនុស្សគ្រប់គ្រងការសន្ទនារវាងបច្ចេកវិទ្យា និងអ្នកប្រើប្រាស់ បើការសន្ទនាពាក់ព័ន្ធនឹងការធ្វើអត្តឃាត ឬណែនាំឱ្យអ្នកប្រើប្រាស់ធ្វើបាបខ្លួន គឺបុគ្គលិកត្រូវជូនដំណឹងទៅអាណាព្យាបាលជាបន្ទាន់ ។

ក្រុមហ៊ុនបច្ចេកវិទ្យាក៏ត្រូវត្រួតពិនិត្យថា បច្ចេកវិទ្យារបស់ខ្លួនមិនបង្ហាញខ្លឹមសារគ្រោះថ្នាក់ដល់សន្តិសុខជាតិ, ខ្លឹមសារប៉ះពាល់កិត្តិយស និងផលប្រយោជន៍ជាតិ ឬមិនបំផ្លាញសាមគ្គីភាព ។ ប៉ុន្តែនាយកដ្ឋានគ្រប់គ្រងអ៊ីនធើរណេតគាំទ្រការប្រើប្រាស់បច្ចេកវិទ្យាក្នុងផ្នែកផ្សេងៗ រួមមាន ៖ ផ្សព្វផ្សាយវប្បធម៌ក្នុងស្រុក និងបច្ចេកវិទ្យាថែទាំផ្លូវចិត្តមនុស្សចាស់ លុះត្រាតែបច្ចេកវិទ្យានេះមានសុវត្ថិភាព និងគួរឱ្យទុកចិត្ត ។

គួរបញ្ជាក់ថា រយៈពេលជាច្រើនឆ្នាំនេះ ប្រទេសនានាចាប់ផ្តើមត្រួតពិនិត្យយ៉ាងតឹងរ៉ឹងពីផលប៉ះពាល់របស់បច្ចេកវិទ្យា AI ចំពោះអ្នកប្រើប្រាស់ ពីព្រោះការសន្ទនាជាមួយមនុស្សពាក់ព័ន្ធនឹងការធ្វើបាបខ្លួនឯង គឺពិបាកដោះស្រាយបំផុតសម្រាប់ក្រុមហ៊ុនបច្ចេកវិទ្យា ។

កាលពីខែសីហា ឆ្នាំ២០២៥ គ្រួសារមួយនៅរដ្ឋកាលីហ្វ័រញ៉ា សហរដ្ឋអាមេរិក បានប្តឹងក្រុមហ៊ុន OpenAI ដែលបង្កើតកម្មវិធី ChatGPT បន្ទាប់ពីកូនប្រុសអាយុ១៦ឆ្នាំបាត់បង់ជីវិត ។ គ្រួសារនេះចោទប្រកាន់ថា ChatGPT ណែនាំឱ្យកូនប្រុសធ្វើអត្តឃាតខ្លួនឯង ហើយនេះជាការប្តឹងផ្តល់លើកដំបូងដែលចោទប្រកាន់ AI ពាក់ព័ន្ធនឹងការធ្វើឱ្យអ្នកដទៃស្លាប់ ៕