အလုိအေလ်ာက္သိျမင္နားလည္ႏုိင္တဲ့ နည္းပညာဖြံ႕ၿဖိဳးတုိးတက္မႈ

AI – Artificial Intelligence ဖြံ႕ၿဖိဳးတိုးတက္လာမႈေၾကာင့္ တစ္ခ်ိဳ႕ေနရာေတြမႇာ လူသားနဲ႔ကြန္ပ်ဴတာ ယႇဥ္ၿပိဳင္တဲ့အခါ လူသားေတြ ႐ံႈးနိမ့္လာပါတယ္။ ဒါကို Go ကစားပြဲေတြက သက္ေသျပေနပါတယ္။

alphago

၂၀၁၆ ခုႏႇစ္၊ ဆုိးလ္ၿမိဳ႕မႇာက်င္းပတဲ့ Go ကြန္ပ်ဴတာဂိမ္းကစားပြဲမႇာ ေလးပြဲယႇဥ္ၿပိဳင္ကစားရာမႇာ နာမည္ႀကီး ကစားသမားတစ္ေယာက္ျဖစ္တဲ့ Lee Sedol တစ္ပြဲႏုိင္ၿပီး က်န္ပြဲေတြမႇာ AI နည္းပညာသံုး AlphaGo ဆုိတဲ့ ကြန္ပ်ဴတာကို ႐ႈံးနိမ့္ခဲ့ပါတယ္။ ဒီကစားပြဲဟာ Go နဲ႔ အလုိအေလ်ာက္သိျမင္နားလည္ႏုိင္တဲ့ နည္းပညာဖြံ႕ၿဖိဳးတိုးတက္မႈ (AI) သက္တမ္းတစ္ေလွ်ာက္မႇာ အႀကီးမားဆံုးကစားပြဲတစ္ခုျဖစ္ပါတယ္။ တ႐ုတ္၊ ကုိရီးယားနဲ႔ ဂ်ပန္ႏိုင္ငံေတြမႇာ Go ေနရာယူႏုိင္ခဲ့တာဟာ အေနာက္ႏုိင္ငံေတြမႇာ Chess ကစားနည္း ေခတ္စားလာသလုိပါပဲ။ Mr Lee ကုိ အႏုိင္ယူခဲ့ၿပီးတဲ့ေနာက္ AlphaGo ဟာ တျခားနာမည္ႀကီး ကစားသမားေတြကုိလည္း အႏုိင္ပုိင္းႏုိင္ခဲ့ပါတယ္။ ၂၀၁၇ ခုႏႇစ္ ၊ ေမလက ၀ူက်န္း၊ တ႐ုတ္ျပည္မႇာ က်င္းပတဲ့ AlphaGo ကစားပြဲမႇာေတာ့ နာမည္ေက်ာ္ KeJie က ႐ႈံးနိမ့္ခဲ့ျပန္ပါတယ္။

AlphaGo ရဲ႕ ေအာင္ျမင္မႈကေတာ့ AI ရဲ႕ အလုိအေလ်ာက္နားလည္ႏုိင္စြမ္းကုိ သက္ေသျပလုိက္တာျဖစ္ၿပီး ကြန္ပ်ဴတာေတြအေနနဲ႔ ႐ႈပ္ေထြးလႇတဲ့ ျပႆနာေတြကုိ အလုိအေလ်ာက္ေျဖရႇင္းသြားႏုိင္ဖုိ႔ ရည္ရြယ္ပါတယ္။        AlphaGo အေနနဲ႔ Go ကစားနည္းကုိ ကမၻာေက်ာ္ကစားသမားေတြနဲ႔ ယႇဥ္ၿပိဳင္ကစားၿပီး နည္းစနစ္ေတြကုိ လုိတုိးပုိေလွ်ာ့လုပ္၊ အသစ္ျပန္လည္ဖန္တီးၿပီး ေကာင္းသထက္ေကာင္းေအာင္ တီထြင္ေနတာျဖစ္ပါတယ္။ ဒီလုိအၿမဲဆန္းသစ္ေပးေနတာက လူသားကစားသမားေတြထက္ ဉာဏ္ရည္တက္ေစပါတယ္။ AlphaGo ကုိ တီထြင္တဲ့ Deep-Mind က သုေတသနပညာရႇင္ေတြကေတာ့ သူတုိ႔အေနနဲ႔ တုိးတက္ေအာင္ လုပ္ေပးႏုိင္တယ္လုိ႔ ခံယူထားၾကပါတယ္။ Nature ရဲ႕ စာမ်က္ႏႇာတစ္ခုမႇာ သူတုိ႔ရဲ႕ေနာက္ဆုံး Version ျဖစ္တဲ့ AlphaGo Zero အေၾကာင္းကုိ ေဖာ္ျပထားပါတယ္။ နည္းပညာပုိင္းမႇာ Game ထက္ပုိေကာင္းလာၿပီး ကစားရတာလည္း ပုိျမန္လာပါတယ္။ အရင္ Version နဲ႔မတူတာကေတာ့ AlphaGo ဟာ သူ႕အလုိအေလ်ာက္ Game ကုိ သိေနမႇာျဖစ္ၿပီး ပညာရႇင္ေတြက သင္ျပေပးစရာ မလုိေတာ့ပါဘူး။

Game အမုိက္စားေတြလုိမ်ဳိး Go က သင္ယူရတာလြယ္ေပမယ့္ ထိန္းခ်ဳပ္ဖုိ႔ခက္တဲ့ Game တစ္ခုပါ။ ကစားသမားႏႇစ္ေယာက္က အလ်ား ၁၉ ေၾကာင္း၊ အနံ ၁၉ ေၾကာင္းပါတဲ့ ဘုတ္ျပားေပၚမႇာ အျဖဴ၊ အမဲတုံးေလးေတြကုိ အလႇည့္က်ေနရာခ်ရပါတယ္။ ပြဲမႇာၿပိဳင္ဘက္ထက္ ေနရာမ်ားမ်ားပုိရဖုိ႔က အဓိကပါပဲ။ ၿပိဳင္ဘက္ရဲ႕ အတုံးေလးေတြ ၀ုိင္းခံထားရတဲ့ ကိုယ့္အတုံးေလးေတြကေတာ့ ဘုတ္ျပားေပၚက ဖယ္ထုတ္ခံရမႇာပါ။ ကစားသမားေတြအေနနဲ႔ ေျခကုန္လက္ပန္းက်ေအာင္ကုိ ဆက္ေဆာ့ေနရမႇာပါ။  ဘုတ္ျပားေပၚကေနရာအလြတ္ေတြမႇာ အတုံးေလးေတြ အလႇည့္က်ေနရာခ်ရင္း ေနရာအမ်ားဆုံးယူႏုိင္တဲ့သူက အႏုိင္ရမႇာျဖစ္ပါတယ္။

ကစားရင္းနဲ႔ ခက္ခဲလာမႇာကေတာ့ ေရႊ႕ဖုိ႔အကြက္ေတြ ရႇာတာပါပဲ။ ၁၉x၁၉ ဘုတ္ျပားေပၚမႇာ အမဲေရာင္အတုံးေလးေတြ ေရႊ႕ဖုိ႔ ၃၆၁ ကြက္ရႇိပါတယ္။ အျဖဴေရာင္အတုံးေလးေတြအတြက္ကေတာ့ ၃၆၀ ကြက္ ေနရာယူႏုိင္ပါတယ္။ ပညာရႇင္ေတြက ဒီကစားနည္းကုိနားလည္ေအာင္ ႀကိဳးစားဖုိ႔ထက္ အႏုိင္ရဖုိ႔ပဲႀကိဳးစားေနၾကပါတယ္။ Go ရဲ႕ ႐ုိးရႇင္းတဲ့ သေဘာသဘာ၀ျဖစ္တဲ့ ဘ၀နဲ႔ေသျခင္းတရားကုိ နားလည္ဖုိ႔က အဓိကပါ။ လူေတြက ဒီသေဘာတရားေတြကုိနားလည္ၾကေပမယ့္ ကြန္ပ်ဴတာပ႐ုိဂရမ္ကုိ ထိန္းခ်ဳပ္ဖုိ႔က မလြယ္လႇပါဘူး။ AlphaGo အေနနဲ႔ လူသားအေရၿခံဳ ဂိမ္းကစားနည္း ေတာ္ေတာ္မ်ားမ်ားကုိ ေလ့လာထားၿပီးပါၿပီ။ လူသားေတြက ဒီသေဘာတရားေတြကုိ နားလည္ႏုိင္သလုိကြန္ပ်ဴတာေတြလည္း နားလည္လာႏုိင္ေအာင္ Supervised Learning နည္းစနစ္နဲ႔ ထိန္းေက်ာင္းသင္ၾကားေပးထားပါတယ္။ Supervised Learning ၊ လူသားပညာရႇင္ေတြနဲ႔ အၾကိမ္ေပါင္းမ်ားစြာသင္ယူလာတဲ့ AlphaGo ဟာ ေနာက္ပိုင္းမႇာေတာ့ ကစားနည္းတုိင္းကုိ သူ႕ဘာသာသူ ေျဖရႇင္းလာႏုိင္ပါတယ္။ Supervised Learning နည္းစနစ္ရဲ႕ အကူအညီနဲ႔ ကြန္ပ်ဴတာေတြဟာ ဓာတ္ပုံထဲက လူေတြကုိမႇတ္မိလာႏုိင္သလုိ လူေတြရဲ႕ စကားသံကုိလည္း မႇတ္ထားတတ္ပါၿပီ။ ဒါေပမယ့္ DemisHassabis (Deepmind သူေဌး) ရဲ႕ အဆုိအရ Supervised Learning မႇာလည္း အကန္႔အသတ္ေတြရႇိတယ္လုိ႔ သိရပါတယ္။ သင္ၾကားေပးမယ့္ Data အခ်က္အလက္ေတြကုိ ကြန္ပ်ဴတာထဲကုိထည့္ၿပီး ဘာလုပ္ရမလဲဆုိတာကုိ လူသားပညာရႇင္ေတြကပဲ စီမံသင္ၾကားေပးတာ ျဖစ္ပါတယ္။ ဥပမာ-လူသားေတြကုိ မႇတ္မိေစႏုိင္မယ့္ Face Recognition Data ထည့္ေပးရာမႇာ လူပါတဲ့ပုံနဲ႔ လူမပါတဲ့ပုံေတြကုိ လူတစ္ေယာက္ခ်င္းစီဖုိင္တြဲလုိက္ ထည့္ထားေပးတာမ်ဳိး။ လူသားေတြကပဲ ကြန္ပ်ဴတာေတြကုိ စီမံေနတဲ့အတြက္ ကြန္ပ်ဴတာေတြအေနနဲ႔ တုိးတက္သင့္သေလာက္ မတုိးတက္ႏုိင္ေတာ့ပါဘူး။

ဒီလုိျပႆနာမ်ဳိးေတြမျဖစ္ေအာင္ AlphaGo က Training ေတြမယူဘဲ Game ရဲ႕ စည္းမ်ဥ္းနဲ႔ပဲစခဲ့တာ ျဖစ္ပါတယ္။ ႏုိင္ရင္ တစ္မႇတ္ရၿပီး ႐ႈံးရင္ တစ္မႇတ္အေလွ်ာ့ခံရမႇာ ျဖစ္ပါတယ္။ ဒီေတာ့ အမႇတ္မ်ားမ်ားယူၿပီး အႏုိင္ရေအာင္ ၿပိဳင္ရမႇာပါ။ ကစားနည္းကုိေတာ့ အတုံးေလးေတြ ေရႊ႕တာကေနစပါတယ္။ ဘယ္ေနရာကုိ ဘယ္လုိပဲေရႊ႕ေရႊ႕ အဓိကကေတာ့ ျမန္ျမန္ေရႊ႕ႏုိင္ဖုိ႔ပါပဲ။ ၂၀၁၆ ခုႏႇစ္၊ ၿပိဳင္ပြဲစတဲ့ ပထမရက္မႇာတင္ အဆင့္ျမင့္နည္းပညာနဲ႔ ယႇဥ္ၿပိဳင္ႏုိင္ခဲ့ၿပီး ဒုတိယရက္မႇာေတာ့ Mr Lee ကုိ အႏုိင္ရခဲ့ပါတယ္။

လူသားေတြဆီက အႀကံဉာဏ္မယူဘဲ ကုိယ့္ဘာသာကုိယ္ ေလ့လာေစတာကလည္း တကယ့္ကုိေကာင္းပါတယ္။ ဥပမာ-Joseki လုိမ်ဳိး ဘုတ္ျပားရဲ႕ ေထာင့္စြန္းဘက္ကေန အကြက္ေရႊ႕ႏုိင္တာမ်ိဳးေပါ့။ Joseki နည္းစနစ္ကုိ AlphaGo Zero က သိျမင္လာခဲ့ပါတယ္။ AlphaGo Project ေခါင္းေဆာင္ David Silver ကေတာ့ ဒီကစားနည္းဟာ ပုံမႇန္ကစားေနက် လူသားဆန္တဲ့ ကစားနည္းမဟုတ္ဘူးလုိ႔ ဆုိပါတယ္။ Go မႇာ ယႇဥ္ၿပိဳင္ၿပီးရလာတဲ့အမႇတ္ေတြကုိ Elo rating (ခ်က္စ္ကို Zerosum ကစားနည္းအမ်ဳိးေတြမႇာ ကစားသမားရဲ႕ အရည္အခ်င္းကို တြက္ခ်က္တဲ့နည္းစနစ္) နဲ႔ မႇတ္ထားပါတယ္။ ကစားသမားတစ္ေယာက္ခ်င္းစီကုိတူညီတဲ့ Elo rating နဲ႔ ၿပိဳင္ဘက္ေတြကုိ ယႇဥ္ၿပိဳင္ခြင့္ေပးထားပါတယ္။ ဒါေပမယ့္ Rating က အမႇတ္ ၂၀၀ ပုိမ်ားေနမႇသာ ၿပိဳင္ဘက္ကုိ အႏုိင္ပုိင္းႏုိင္မႇာျဖစ္ၿပီး အခြင့္အလမ္းက ၂၅ ရာခုိင္ႏႈန္းပဲ ရႇိပါတယ္။ MrKe ရဲ႕ Rating က ၃၆၆၁ ျဖစ္ၿပီး Mr Lee ကေတာ့ Rating ၃,၅၂၆ ျဖစ္ပါတယ္။ ရက္ ၄၀ ၾကာ Training ၿပီးတဲ့ေနာက္မႇာ AlphaGo Zero ရဲ႕ Rating က ၅,၀၀၀ ေက်ာ္ေနပါၿပီ။ MrKe မဟုတ္တဲ့ တျခားပညာရႇင္ေတြေတာင္ ေတာ္႐ုံမယႇဥ္ၿပိဳင္ႏုိင္တဲ့ Rating ပဲ ျဖစ္ပါတယ္။

သမုိင္းေၾကာင္းနဲ႔ ႐ုိးရာေပါင္းစပ္ထားတဲ့ ကစားနည္းတစ္ခုျဖစ္တဲ့ AlphaGo ရဲ႕ အားသာခ်က္ကေတာ့ ကစားသမားေတြအေနနဲ႔ ေရႇးေဟာင္းအသိပညာေတြကုိ ေလ့လာဆင္ျခင္သုံးသပ္ႏုိင္တာပါပဲလုိ႔ Mr Silver က ဆက္ေျပာပါတယ္။ AlphaGo ကုိ ႐ႈံးၿပီးတဲ့ေနာက္ပုိင္း MrKe ဟာ ကြန္ပ်ဴတာရဲ႕ ေရႊ႕လ်ားမႈေတြကုိ ေလ့လာခဲ့ပါတယ္။ လူသားပညာရႇင္အခ်င္းခ်င္းယႇဥ္ၿပိဳင္တဲ့ 22-game winning streak မႇာ MrKe ဟာ သူနဲ႔လက္ရည္တူပညာရႇင္ကုိ အႏုိင္ရခဲ့ပါတယ္။ Supervised Learning ကေတာ့ ေနရာတုိင္းမႇာ အသုံး၀င္ေနဦးမႇာပါ။

နန္းဆြယ္ဆီဝမ္း