ក្រមសីលធម៌ AI វាយតម្លៃដោយប្រុងប្រយ័ត្នថាតើការផ្តល់ AI លំអៀងដល់ការបរបាញ់ដើម្បីចាប់ និង Nab ប្រព័ន្ធស្វយ័តពេញលេញដែលទុច្ចរិតប្រកបដោយក្រមសីលធម៌ ជាការប្រុងប្រយ័ត្ន ឬឥតប្រយោជន៍

ចង់បាន៖ AI bias hunters.

That could be a modern-day ad that you’ll begin to see popping up on social media channels and making appearances in various online job postings. This is a relatively new concept or role. It carries with it controversy. Some ardent believers fervently argue that it makes abundant sense and should have been happening all along, while others are rather nervously doing some serious head-scratching and not so sure that this is a good idea.

The gist of the role consists of ferreting out of AI any hidden biases or embedded discriminatory practices. To the rescue come the eager and altogether erstwhile AI biases hunters. They would presumably be computer-savvy bounty hunters. More so, hopefully, steeped in the depths of AI capabilities.

Have gun, will travel, and can via AI-skilled keen marksmanship manage to expose those unsavory and untoward AI biases.

This raises a slew of thorny questions about the sensibility of pursuing such a tactic when it comes to discovering AI biases. As I will discuss momentarily, please know that the advent of AI has also brought with it the emergence of AI biases. A torrent of AI biases. For my ongoing and extensive coverage of AI Ethics and Ethical AI, see តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

How are we to discover that a particular AI system has biases?

You might entrust the AI developers that devised the AI to do so. The thing is, they might be so mired in biases that they themselves cannot recognize the biases within their concocted AI. It all looks good to them. Or they might be so excited about the AI and have a sense of self-pride about it that to have to then take a critical eye to examine it for biases would be difficult and a real downer. Lots of other such reasons might seem to undercut having the AI developers take on this task, including lack of skills to figure out the embedded biases, lack of time in a project to do so, etc.

Okay, so go ahead and hire outside consultants to do the dirty work for you, as it were. Turns out that consultants will happily scrutinize your AI for biases, charging you a pretty penny to do so (lots and lots of pennies). Realize that you need to pay for them to come up to speed with your AI system. You need to then have them rummage around, which might take an untold number of costly laborious hours. Using consultants is an option if you have the budget for it.

Into the potential “gap” of how to find those insidious AI biases come the heroic and dashing AI biases bounty hunters.

You don’t usually pay them upfront. They try to find the AI biases on their own time and have to foot their own bills as they do so. Only if they successfully find biases do they get paid. I suppose you could readily assert that in a suitable manner of thinking, that’s the conventional definition of a bounty hunter. Get paid if you succeed. Don’t get paid if you aren’t successful. Period, end of story.

Bounty programs have existed since at least the time of the Romans and thus we might surmise that they do work, having successfully endured as a practice over all of these years.

Here’s a fascinating piece of historical trivia for you. Reportedly, a posted message during the Roman Empire in the city of Pompeii proclaimed that bounty hunters were needed to find a copper pot that went missing from a small shop. The reward for the recovery of the copper pot was an impressive prize of sixty-five bronze coins. Sorry to say that we don’t know if any bounty hunter found the copper pot and claimed the bronze coins, but we do know that bounty hunting has certainly continued since those ancient times.

In more modern times, you might be aware that in the 1980s there were some notable bounties offered to find computer bugs or errors in off-the-shelf software packages and then in the 1990’s Netscape markedly offered a bounty for finding bugs in their web browser (becoming one of the most prominent firms of that day to do so). Google and Facebook had each opted toward bounty hunting for bugs starting in 2010 and 2013 years, respectively. A few years later, in 2016 even the U.S. Department of Defense (DoD) got into the act by having a “Hack the Pentagon” bounty effort (note that the publicly focused bounty was for bugs found in various DoD-related websites and not in defense mission-critical systems).

Let’s dig more deeply into the bug bounty topic. I realize that I am mainly aiming to talk about AI biases in bounty hunting in this discussion, but there are some quite relevant parallels to the bug bounty arena.

Some are demonstrably puzzled that any firm would want to offer a bounty to find bugs (or, in this case, AI biases) in their systems.

On the surface, this seems like a “you are asking for it” kind of strategy. If you let the world know that you welcome those that might try to find holes in your software, it seems tantamount to telling burglars to go ahead and try to break into your house. Even if you already believe that you’ve got a pretty good burglar alarm system and that no one should be able to get into your secured home, imagine asking and indeed pleading with burglars to all descend upon your place of residence and see if they can crack into it. Oh, the troubles we weave for ourselves.

The same could be said about asking for bounty hunters to find biases in your AI.

First, it perhaps implies that you already believe or even outright know that your AI does have biases. That is a shockingly forthright implied admission that few would seem willing to make and could potentially backfire.

Second, you don’t know for sure what those bounty hunters might do. They could opt to tell the whole world that they found biases in your AI. One supposes this might forfeit getting the bounty, though some might relish the attention or aim to bolster their status for getting consulting gigs and other revenue-generating possibilities. It could perhaps be entirely altruistic. It might be a form of AI activism. I can keep going.

Third, there could be a sneaky twist to the whole affair. A bounty hunter claiming to be searching for AI biases might be devilishly poking around to find ways to attack your AI system. The whole thing is a charade to ultimately undertake a severe cyberattack. You might have assumed they were trying to help, while they have wrongdoing in their hearts. Sad, but possible.

Fourth, we can get even more slyly contorted on this matter. A bounty hunter finds some embarrassing and potentially lawsuit-spurring AI biases. The bounty is some amount of dollars that we will call X. Rather than claiming the bounty, the bounty hunter does a kind of oddish ransomware provocation. If you pay the bounty hunter an amount of ten times X or maybe the skies the limit, they will tell you about the AI biases. You have until Sunday night at midnight to answer. After that point in time, the AI biases will be revealed for all to see. Yikes, a dastardly predicament to be in.

Fifth, the latest are those so-called “hack to return” cybercrooks that after having stolen a bunch of online dough, they decide to repent and return some of the ill-gotten booty that they grabbed up. The company getting its monies partially returned is then willing to consider the remaining stolen amount as an after-the-fact bounty rewarded to the thieves. Seems like everyone “wins” in that the bulk of the funds are given back and meanwhile the cybercrooks are not legally pursued, plus they get the pirate bounty to boot. Is this prudent or insidiously perpetuating wrongful acts?

I realize that some of you might be saying that nobody should be releasing AI that has any biases in it. That would seem to solve this whole dilemma about whether to use AI biases bounty hunters or not. Just don’t get yourself into a bounty situation. Make sure your AI developers do the right thing and do not allow AI biases into their AI systems. Perhaps use consultants to do a double-check. In essence, do whatever you need to do to avoid ever thinking about or asking those AI bias bounty hunters to come to the table.

Yes, that would seem entirely sensible. The problem is that it is also a bit dreamy. The complexity of many AI systems is so great that trying to ensure that not a single ounce of AI biases emerges is going to be arduous to do. On top of that, some AI systems are purposely devised to adjust and “learn” as they go along. This means that at some future point in time the AI that you devised, which let’s pretend at first was purely clean and without biases, might gravitate toward embodying biases (I do not mean that in an anthropomorphic way, as I will explain further as we go along on this topic).

Those that favor bounty hunting for software bugs are prone to argue that it makes sense to offer such bounties. We can consider their rationale and see if it applies to the AI biases realm too.

Proponents of bug bounties emphasize that rather than trying to pretend that there aren’t any holes in your system, why not encourage holes to be found, doing so in a “controlled” manner? In contrast, without such a bounty effort, you could just hope and pray that by random chance no one will find a hole, but if instead you are offering a bounty and telling those that find a hole that they will be rewarded, it offers a chance to then shore-up the hole on your own and then prevents others from secretly finding it at some later point in time.

The same could be said in the use case of AI biases. If you offer a sufficient bounty, hopefully, the bounty hunters will bring the discovery of AI biases to your attention. You can then cope with the AI biases in a relatively quiet and measured way. This might forestall a much larger and more daunting problem later on, namely that somebody else finds AI biases in your AI and screams about it to the high heavens.

Generally, a firm wishing to enable bugs bounty hunting effort will put in place a Vulnerability Disclosure Policy (VDP). The VDP indicates how the bugs are to be found and reported to the firm, along with how the reward or bounty will be provided to the hunter. Usually, the VDP will require that the hunter end up signing a Non-Disclosure Agreement (NDA) such that they won’t reveal to others what they found.

The notion of using an NDA with bounty hunters has some controversy. Though it perhaps makes sense to the company offering the bounty to want to keep mum the exposures found, it also is said to stifle overall awareness about such bugs. Presumably, if software bugs are allowed to be talked about, it would potentially aid the safety of other systems at other firms that would then shore up their exposures. Some bounty hunters won’t sign an NDA, partially due to the public desire and partially due to trying to keep their own identity hidden. Keep in mind too that the NDA aspect doesn’t arise usually until after the hunter claims they have found a bug, rather than requiring it beforehand.

Some VDPs stipulate that the NDA is only for a limited time period, allowing the firm to first find a solution to the apparent hole and then afterward to allow for wider disclosure about it. Once the hole has been plugged, the firm then allows a loosening of the NDA so that the rest of the world can know about the bug. The typical time-to-resolution for bounty hunted bugs is reportedly around 15-20 days when a firm wants to plug it right away, while in other cases it might stretch out to 60-80 days. In terms of paying the bounty hunter, the so-called time-to-pay, after the hole has been verified as actually existing, the bounty payments reportedly tend to be within about 15-20 days for the smaller instances and around 50-60 days for the larger instances (these are constantly changing industry indications and only mentioned as illustrative).

Should AI biases bounty hunters also be asked to participate in a VDP and deal with an NDA?

You can get a yes and a no to that question. Yes, some firms should go that route. No, you might not necessarily opt to go that route. Factors include the size and nature of the AI, the potential of any AI biases exposures involved, and a bunch of other ethical, legal, and business considerations that come to bear.

I might add that establishing a bounty hunting endeavor for AI biases of your AI is a much taller order than you might assume at an initial glance.

We will start with the formidable possibility that you will be overwhelmed by AI biases bounty hunters.

Right now, you would be hard-pressed to find many that would have such a calling card. There aren’t many around. It is the days of the Wild West in that regard. But if the notion of AI biases in bounty hunting catches on, especially when the bounties are plentiful and richly rewarding, you can bet that everyone will dive into the biases hunting swimming pool.

Do you want all sorts of riffraff pursuing AI biases in your AI system? You will get some takers that are actually experts at this sort of thing. You will get other takers that are amateurs and might make a mess or cry wolf. The next thing you know, anybody that can spell “Artificial Intelligence” will be coming to dig in your goldmine of an AI system for those precious AI biases gold nuggets. The gold rush is on. That might not be good for you.

You will need to scrutinize the bounty hunter submissions. There will be a lot of “noise” in the reported claims, in the sense that many of the claimed AI biases do not exist, though the bounty hunter insists that they found some. Imagine how much labor your own AI teams will be required to examine the bounty claims, explore the validity of each, and then potentially go back and forth with the bounty hunter about whether gold was discovered or not.

Some would argue that’s another reason to do the whole thing yourself. You might inevitably discover that the bounty thing is more trouble than it was worth.

Here’s another question to ponder. How will the bounty hunters know what an AI bias looks like? In essence, without some semblance of what to be looking for, any shiny rock could be claimed as showcasing an AI bias in the perceived AI goldmine being excavated.

In the days of the Old West, suppose you offered a reward for the capture of Billy the Kid (a famous outlaw). If you did so and did not include a picture of what Billy looked like, imagine the number of bounty hunters that might drag into the sheriff’s office someone that they hoped or thought was Billy the Kid. You might get inundated with false Billy’s. This is bad since you’d need to presumably look at each one, ask probing questions, and try to ascertain whether the person was really Billy or not.

The point is that to set up the AI biases bounty effort you would be wise to try and clarify what you consider AI biases to consist of. This requires a Goldilocks kind of calibration. You don’t want to be so confining that the bounty hunters overlook AI biases merely because they don’t fit within your stipulated definition, and nor do you want them to yell “Eureka!” at every morsel of an AI bias that they perchance find.

You will need just the right Goldilocks balance of what AI biases consist of and thus provide preferably explicit directions thereof.

A lot of this AI biases bounty hunting is going to be focused on AI-based Machine Learning (ML) and Deep Learning (DL) systems. This makes sense since the advent of ML/DL pervasiveness is growing, plus it seems to have some of the most likely challenges of encompassing undue AI biases.

These researchers identify how salient an AI biases bounty hunting effort can be, particularly in the ML/DL context: “Over time, the software and security communities have developed ‘bug bounties’ in an attempt to turn similar dynamics between system developers and their critics (or hackers) towards more interactive and productive ends. The hope is that by deliberately inviting external parties to find software or hardware bugs in their systems, and often providing monetary incentives for doing so, a healthier and more rapidly responding ecosystem will evolve. It is natural for the ML community to consider a similar ‘bias bounty’ approach to the timely discovery and repair of models and systems with bias or other undesirable behaviors. Rather than finding bugs in software, external parties are invited to find biases — for instance, (demographic or other) subgroups of inputs on which a trained model underperforms — and are rewarded for doing so” (in the paper “An Algorithmic Framework for Bias Bounties” by Ira Globus-Harris, Michael Kearns and Aaron Roth).

In the research paper, the authors outline a suggested approach to what kinds of AI biases can be sought by bounty hunters. There is also an indication about how to assess the bounty hunter claims associated with the alleged AI biases so discovered. As per my earlier remarks herein, the odds are that you will receive specious claims and have to separate the AI biases wheat from the chaff.

Before getting into some more meat and potatoes about the wild and woolly considerations underlying AI bias hunting, let’s establish some additional fundamentals on profoundly integral topics. We need to briefly take a breezy dive into AI Ethics and especially the advent of Machine Learning (ML) and Deep Learning (DL).

អ្នកប្រហែលជាដឹងយ៉ាងច្បាស់ថា សំឡេងខ្លាំងបំផុតមួយនាពេលបច្ចុប្បន្ននេះនៅក្នុងវិស័យ AI និងសូម្បីតែនៅខាងក្រៅវិស័យ AI មានការស្រែកឡើងសម្រាប់ភាពស្រដៀងគ្នានៃ Ethical AI កាន់តែខ្លាំង។ សូមក្រឡេកមើលថាតើវាមានន័យយ៉ាងណាក្នុងការសំដៅទៅលើ AI Ethics និង Ethical AI ។ លើសពីនេះ យើងនឹងស្វែងយល់ពីអត្ថន័យរបស់ខ្ញុំ នៅពេលដែលខ្ញុំនិយាយអំពី Machine Learning និង Deep Learning។

ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).

បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះ​ជា​ដំណឹង​អកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។

ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

យើងក៏ត្រូវប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីលក្ខណៈនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

Let’s now return to the topic of AI bias hunting.

For those of you considering an AI bias bounty hunting endeavor, here are my recommended seven key steps on how to best proceed:

1) វាយតម្លៃ។. Assess the suitability of an AI bias bounty hunting endeavor for your circumstances and as per your AI systems

2) រចនាដោយ. Design an appropriate AI bias bounty hunting approach

3) អនុវត្ត. Implement and publicize your AI bias bounty hunting endeavors

4) វាល. Field the AI biases bounty claims and process accordingly

5) ជួសជុល. Fix or adjust your AI as pertinent to these discovered AI bias exposures

6) លៃតម្រូវ. Adjust the AI biases bounty hunting as needed

7) បញ្ឈប់. Discontinue the AI bias bounty hunting when it is no longer needed

In my series of above steps, note that I mention that you will presumably want to fix or adjust your AI as based on ascertaining that a claimed AI bias does in fact exist within your AI system. This abundantly makes sense. You would almost certainly want to shore up any found AI biases. Think of the legal (and ethical) ramifications if you don’t do so. It is one thing to assert that you didn’t know an AI bias existed and therefore allowed it to exist, while it is much shakier ground to have on record that you were made aware of an AI bias and did nothing about it.

The nature and degree of the AI fix or adjustment would of course be contingent on how significant the AI biases were and how deeply embedded the issues are. If you are lucky, perhaps a modest amount of changes to the AI will rectify matters. The other potential is that you might need to do an entire rewrite of the AI. For the ML/DL type of AI, this could require going back to the drawing board and starting fresh with an entirely new set of data and a cleaned-up ML/DL model. I’ve discussed the advent of AI disgorgement or AI destruction as a potential legal remedy against unsavory AI, see តំណភ្ជាប់នៅទីនេះ.

One question to mull over is whether you would want the bounty hunters to possibly do more than just identify the existence of AI biases. For example, you might sweeten the bounty by indicating that proposed fixes are welcome too. An AI bias បានរកឃើញ by a bounty hunter might be paid one indicated reward or prize. If the bounty hunter can also proffer a viable ជួសជុល to the AI bias they might then be granted an additional reward.

Some argue that this is a bridge too far. They say that you should keep the AI bias bounty hunters exclusively focused on finding AI biases. You are going to create a bunch of undesirable adverse consequences by inviting them to also suggest fixes. Keep things simple. The goal is to get as many additional eyes on discovering AI biases so that you can decide what to do next. Do not muddy the waters.

A thorny aspect that needs to be figured out entails the magnitude of the reward or prize for the bounty hunters that genuinely discover AI biases. You want the payoff to be demonstrative. Without a high enough reward, you won’t get many bounty hunters or they will not be especially eager to seek out the AI biases in your AI systems. They might instead concentrate on other AI bias bounty endeavors.

Furthermore, as mentioned, you want to try and repress an urge by the bounty hunters to turn their AI bias discoveries into other forms of gold. If the reward seems measly, it could irk bounty hunters into seeking other higher payoffs. They could take a ransomware approach toward you. They might declare that they have a juicy AI bias that a competitor would love to know about and could use against your firm by touting that the AI bias exists in your AI. Thus, they sell the discovered AI bias to the highest bidder. And so on.

One supposes that if you set the reward at an extremely high range, you are also asking for potential trouble. This could attract all kinds of nutty bounty hunters. They in turn might deluge social media with hazy claims that they found a multitude of AI biases, doing so for their own self-promotion and without having actually speared any AI biases. In a sense, your heightened reward inadvertently shines a light on your AI and prods a slew of uncouth moths to correspondingly be perniciously attracted to the glowing light beam.

Another consideration involves accessibility to your AI.

To enable an AI bounty hunting possibility, the bounty hunters have to sufficiently gain access to your AI. They aren’t going to have much luck in finding AI biases if they are entirely locked out. But you don’t want to give up your cybersecurity protections since doing so could completely compromise your AI system.

You might try to have the bounty hunters sign various legally binding declarations and then provide them with the needed access. Some bounty hunters aren’t going to like that type of approach. Their viewpoint is that they will only do whatever any publicly available and open-ended path allows. They are free mavericks, as it were, and do not like being saddled, as it were. Getting them to put their signature on intimidating legal documents will cause a lot of them to avoid searching for AI biases in your AI. Or they might get peeved at your legal gauntlet and decide they will see what they can find via public means, doing so with the perhaps strident urge to show you how vulnerable you really are.

I’ve got yet another angle that might make your head spin.

An AI savvy bounty hunter might decide to devise an AI system that can scrutinize your AI and possibly discover AI biases in your AI. This is the toolmaker opting to make a tool to do the job rather than performing manual labor themselves. Instead of laboriously examining your AI, the AI-versed bounty hunter spends their time concocting an AI tool that does the same thing. They then use the AI tool on your AI. The beauty too is that they can presumably reuse the AI tool on anyone else that is also offering a bounty hunting opportunity on their respective AI as well.

I know what you are probably thinking. If an AI tool can be devised to examine AI for biases, the maker of the AI that is being scrutinized for AI biases ought to either craft such an AI tool or buy one for their own use. In theory, they then do not need to contend with the whole bounty hunter carnival, to begin with. Just use AI to find their AI biases.

Yes, this is something that you can expect will gradually arise. Meanwhile, the mainstay of these efforts will likely consist of AI developers doing bounty hunting. They might use various tools to aid their efforts, but in the near term, they are unlikely to simply mindlessly set the AI tool on automatic and take a nap such that the tool does the entirety of the AI bias hunting for them.

We aren’t there yet.

នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនដែលអាចបង្ហាញអំពីប្រធានបទនេះ។ មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញយ៉ាងរស់រវើកអំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ដ៏ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ Does the advent of AI-based true self-driving cars illuminate anything about the use of AI bias bounty hunting, and if so, what does this showcase?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកកិច្ចខិតខំប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAADA
S (Advanced Driver-Assistance Systems) ។

មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

Self-Driving Cars And AI Bias Bounty Hunting

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំសង្ឃឹមថា វាផ្តល់នូវការព្រមានដ៏គ្រប់គ្រាន់មួយ ដើម្បីគូសបញ្ជាក់នូវអ្វីដែលខ្ញុំរៀបនឹងទាក់ទង។

In my columns, I have already discussed at length the use of bugs-oriented bounty hunters in the autonomous vehicles and self-driving cars realm. This approach has indeed taken place in this niche. There are the usual debates about whether it is a sound idea or not. The efforts have usually been of a limited nature, often kept relatively quiet.

A likewise discourse can ensue when the focus shifts toward hunting for AI biases rather than seeking system bugs per se. Some suggest it is a darned if you do, darned if you don’t conundrum.

នេះហើយជាមូលហេតុ។

First, to be clear, there are numerous ways in which autonomous vehicles and self-driving cars are going to be subject to containing AI biases, see my coverage at តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, just to name a few. Automakers and self-driving car firms would seem wise to try and prevent those AI biases from appearing in their AI systems. The legal and ethical firestorm against such firms will undoubtedly be intense.

Is the use of an AI biases bounty hunting endeavor a suitable approach in this specific context?

One answer is that yes, this will be handy and provide an abundance of “free” sets of new eyes to try and catch any embedded AI biases of an AI self-driving car or the like. Most of the AI developers building self-driving cars are busy making AI that can safely drive a car from point A to point B. They are preoccupied with that core capability and have neither the time nor attention toward any AI biases that might be somewhere in their AI.

The other answer is that no, allowing bounty hunting for autonomous vehicles and self-driving cars on any basis, whether for bugs or AI biases, just ought to be fiercely avoided. The argument is that these vehicles and their AI are of a life-or-death caliber. Messing with the AI in any fashion could be somehow ruinous to the AI and impact what the AI driving system does.

A counterargument to that last point is that the bounty hunters are supposed to be unable to alter the AI that they are examining. Thus, there is no danger of them messing with the AI and causing the AI in this context to suddenly become a crazed AI driving system. The bounty hunters are only having read-only access. Allowing them to go further would be amply stupid and a huge mistake.

The counterargument to that counterargument is that by allowing and encouraging bounty hunters to examine your AI, the whole matter becomes dicey. Those bounty hunters might figure out ways to exploit any found bugs or biases. Those exploits in turn might be for devious purposes. You would be better off not inviting “burglars” into your home, so to speak. Once they have cased out the joint, you are ultimately going to be in a heap of trouble.

For those that have AI systems of a less-than-life-or-death magnitude, the belief is that the repercussions of a bounty hunting foray that goes awry are a lot less risky. Maybe so. On the other hand, if a firm has poured their monies into an AI system that bounty hunters manage to usurp, you can assume that the reputational damages and other potential damages will still hurt.

There is no free lunch when it comes to AI bias bounty hunting.

A quick closing remark for now.

When the notorious outlaw Jesse James was sought during the Old West, a “Wanted” poster was printed that offered a bounty of $5,000 for his capture (stating “dead or alive”). It was a rather massive sum of money at the time. One of his own gang members opted to shoot Jesse dead and collect the reward. I suppose that shows how effective a bounty can be.

Will the use of AI bias bounty hunters be a good thing, or will it be a bad thing?

If you opt to institute an AI bias bounty hunter endeavor, I’d suggest that you keep your eyes wide open and be looking over your shoulder at all times. This is prudent for you and your AI. You never know what might happen, including that a conniving bounty hunter somehow inserts surreptitiously an AI bias into your AI and shouts to the world that they found an unscrupulous AI bias in your AI. Perhaps doing so in a brazen and outsized attempt at seeking the bounty reward, plus proclaiming themselves a hero that essentially got the vaunted Jesse James.

Come to think of it, a sentient AI probably won’t like that idea of a disconcerting dead-or-alive provision, one might languorously so speculate.

Source: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab-ethically-wicked-fully-autonomous-systems-is-prudent-or-futile/