Microsoft បង្កើនសុវត្ថិភាព AI Chatbot ដើម្បីរារាំងអ្នកបោកប្រាស់

ក្រុមហ៊ុន Microsoft Corp បានបន្ថែមមុខងារសុវត្ថិភាពមួយចំនួននៅក្នុង Azure AI Studio ដែលគួរតែបន្តកាត់បន្ថយលទ្ធភាពដែលអ្នកប្រើប្រាស់របស់ខ្លួនកំណត់រចនាសម្ព័ន្ធ AI ទៅជារបៀបមួយដែលនឹងធ្វើឱ្យពួកគេធ្វើសកម្មភាពមិនធម្មតា ឬមិនសមរម្យ។ ក្រុមហ៊ុនបច្ចេកវិទ្យាពហុជាតិដែលមានមូលដ្ឋាននៅ Redmond, វ៉ាស៊ីនតោន បានគូសបញ្ជាក់ពីការកែលម្អនៅក្នុងការបង្ហោះប្លក់ ដោយសង្កត់ធ្ងន់លើការធានានូវភាពត្រឹមត្រូវនៃអន្តរកម្ម AI និងជំរុញការជឿទុកចិត្តលើមូលដ្ឋានអ្នកប្រើប្រាស់។

របាំងការពារ និងច្រើនទៀត 

ក្នុងចំណោមការវិវឌ្ឍសំខាន់ៗគឺការបង្កើត "ប្រឡោះការពារភ្លាមៗ" ដែលជាបច្ចេកវិទ្យាដែលត្រូវបានរចនាឡើងដើម្បីស្វែងរក និងសម្លាប់ការចាក់ភ្លាមៗពេលកំពុងសន្ទនាជាមួយ AI chatbots ។ ទាំងនេះគឺជាអ្វីដែលហៅថា jailbreaks ហើយជាមូលដ្ឋានបញ្ចូលពីអ្នកប្រើប្រាស់ដែលមានចេតនាបង្កើតក្នុងលក្ខណៈដែលពួកគេបានទាញយកការឆ្លើយតបដែលមិនចង់បានពីម៉ូដែល AI ។

ជាឧទាហរណ៍ ក្រុមហ៊ុន Microsoft កំពុងលេងផ្នែករបស់ខ្លួនដោយប្រយោលជាមួយនឹងការចាក់បញ្ចូលភ្លាមៗ ដែលការប្រតិបត្តិនៃការបញ្ជាទិញអាក្រក់អាចធ្វើទៅបាន ហើយសេណារីយ៉ូបែបនេះអាចនាំឱ្យមានផលវិបាកផ្នែកសុវត្ថិភាពធ្ងន់ធ្ងរ ដូចជាការលួចទិន្នន័យ និងការលួចយកប្រព័ន្ធជាដើម។ យន្ដការទាំងនេះគឺជាគន្លឹះក្នុងការស្វែងរក និងឆ្លើយតបទៅនឹងការគំរាមកំហែងមួយក្នុងចំណោមការគំរាមកំហែងទាំងនេះក្នុងពេលវេលាជាក់ស្តែង នេះបើយោងតាម ​​Sarah Bird ដែលជាប្រធានផ្នែកផលិតផលរបស់ក្រុមហ៊ុន Microsoft សម្រាប់ការទទួលខុសត្រូវ AI ។

ក្រុមហ៊ុន Microsoft បន្ថែមថា ឆាប់ៗនេះនឹងមានការជូនដំណឹងនៅលើអេក្រង់របស់អ្នកប្រើប្រាស់ ដែលនឹងចង្អុលបង្ហាញនៅពេលដែលគំរូមួយទំនងជាបង្ហាញព័ត៌មានមិនពិត ឬបំភាន់ ដោយធានានូវភាពងាយស្រួល និងទំនុកចិត្តរបស់អ្នកប្រើប្រាស់កាន់តែច្រើន។

ការកសាងទំនុកចិត្តលើឧបករណ៍ AI 

កិច្ចខិតខំប្រឹងប្រែងរបស់ Microsoft គឺជាផ្នែកមួយនៃគំនិតផ្តួចផ្តើមធំជាងនេះ ដែលមានន័យថាផ្តល់ឱ្យមនុស្សនូវទំនុកចិត្តលើ AI ជំនាន់ដ៏ពេញនិយមដែលកំពុងត្រូវបានអនុវត្តយ៉ាងទូលំទូលាយនៅក្នុងសេវាកម្មដែលផ្តោតលើអ្នកប្រើប្រាស់ម្នាក់ៗ និងអតិថិជនសាជីវកម្ម។ ក្រុមហ៊ុន Microsoft បានឆ្លងកាត់ជាមួយនឹងសិតសក់ដ៏ល្អ បន្ទាប់ពីកើតមានករណី ដែលអ្នកប្រើប្រាស់មានសមត្ថភាពលេងហ្គេម Copilot chatbot ដើម្បីបង្កើតលទ្ធផលដ៏ចម្លែក ឬគ្រោះថ្នាក់។ នេះនឹងជាការគាំទ្រដល់លទ្ធផលដែលបង្ហាញពីតម្រូវការសម្រាប់ការការពារដ៏រឹងមាំប្រឆាំងនឹងយុទ្ធសាស្ត្រឧបាយកលដែលបានលើកឡើង ដែលទំនងជាកើនឡើងជាមួយនឹងបច្ចេកវិទ្យា AI និងចំណេះដឹងដ៏ពេញនិយម។ ការទស្សន៍ទាយ ហើយបន្ទាប់មកការបន្ធូរបន្ថយ គឺនៅក្នុងការទទួលស្គាល់នូវគំរូនៃការវាយប្រហារ នោះគឺជាកន្លែងដែលអ្នកវាយប្រហារធ្វើការសាកសួរឡើងវិញ ឬសួរនៅពេលដើរតួជាតួអង្គ។

ក្នុងនាមជាអ្នកវិនិយោគធំជាងគេ និងជាដៃគូយុទ្ធសាស្ត្ររបស់ OpenAI ក្រុមហ៊ុន Microsoft កំពុងជំរុញព្រំដែននៃរបៀបបញ្ចូល និងបង្កើតបច្ចេកវិទ្យា AI ប្រកបដោយការទទួលខុសត្រូវ និងសុវត្ថិភាព។ ទាំងពីរមានការប្តេជ្ញាចិត្តចំពោះការដាក់ពង្រាយប្រកបដោយទំនួលខុសត្រូវ និងគំរូមូលដ្ឋាននៃ Generative AI សម្រាប់វិធានការសុវត្ថិភាព។ ប៉ុន្តែ Bird បានទទួលស្គាល់ថា គំរូភាសាធំៗទាំងនេះ ទោះបីជាពួកគេកំពុងត្រូវបានមើលឃើញថាជាមូលដ្ឋានគ្រឹះសម្រាប់ការច្នៃប្រឌិត AI នាពេលអនាគតក៏ដោយ មិនមែនជាភស្តុតាងនៃឧបាយកលនោះទេ។

ការកសាងមូលដ្ឋានគ្រឹះទាំងនេះនឹងចំណាយពេលច្រើនជាងការពឹងផ្អែកលើគំរូខ្លួនឯង។ វានឹងត្រូវការវិធីសាស្រ្តដ៏ទូលំទូលាយមួយចំពោះសុវត្ថិភាព និងសុវត្ថិភាព AI ។

ថ្មីៗនេះក្រុមហ៊ុន Microsoft បានប្រកាសពីការពង្រឹងវិធានការសុវត្ថិភាពសម្រាប់ Azure AI Studio របស់ខ្លួនដើម្បីបង្ហាញ និងធានានូវជំហានសកម្មដែលកំពុងត្រូវបានអនុវត្តដើម្បីការពារការផ្លាស់ប្ដូរការគំរាមកំហែង AI ។

វាខិតខំជៀសវាងការប្រើប្រាស់ AI ខុស និងរក្សាភាពសុចរិត និងភាពជឿជាក់នៃអន្តរកម្ម AI ដោយបញ្ចូលអេក្រង់ និងការជូនដំណឹងទាន់ពេលវេលា។

ជាមួយនឹងការវិវត្តន៍ឥតឈប់ឈរនៃបច្ចេកវិជ្ជា AI និងការទទួលយករបស់វានៅក្នុងការដាក់បញ្ចូលជាច្រើននៃជីវិតប្រចាំថ្ងៃ វានឹងក្លាយជាពេលវេលាដ៏ខ្ពស់សម្រាប់ក្រុមហ៊ុន Microsoft និងសហគមន៍ AI ផ្សេងទៀតដើម្បីរក្សាជំហរសុវត្ថិភាពដ៏ប្រុងប្រយ័ត្នបំផុត។

ប្រភព៖ https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/