AI ใช้ใจมอง (1): ขีดจำกัดของ AI

เมื่อไม่นานมานี้ เกิดวิวาทะร้อนแรงระหว่าง Elon Musk ผู้ก่อตั้ง Tesla กับ Mark Zuckerberg ผู้ก่อตั้ง Facebook โดย Mark สนับสนุนการพัฒนา AI (ย่อมาจาก Artificial Intelligence หรือปัญญาประดิษฐ์) โดยกล่าวว่า “เขามอง AI ในแง่บวกมาก ๆ และมองว่าคนที่คิดว่าโลกจะถึงจุดจบด้วย AI นั้นบั่นทอนการพัฒนาและไร้ความรับผิดชอบโดยสิ้นเชิง”

Mark_Zuckerberg,_World_Economic_Forum_2009_Annual_Meeting“I have pretty strong opinions on this. I am optimistic,” Zuckerberg said. “And I think people who are naysayers and try to drum up these doomsday scenarios — I just, I don’t understand it. It’s really negative and in some ways I actually think it is pretty irresponsible.”
(ข้อความจาก บทความใน bizjournals.com ภาพจาก Wikipedia)

ในขณะที่ Elon หนึ่งในตัวตั้งตัวตีด้านการควบคุม AI ได้โต้ผ่าน Twitter ว่า “ผมเคยคุยกับ Mark เรื่องนี้แล้ว ผมเห็นว่าความเข้าใจเรื่อง AI ของเขายังจำกัดนัก” นอกจากนั้น Elon ยังวางแผนทำภาพยนตร์เพื่อเตือนภัยจากอันตรายของ AI ที่ไร้การควบคุม และเปิดแพลตฟอร์ม OpenAI เพื่อลดการผูกขาดและเพิ่มการตรวจสอบการใช้งาน AI 

ก่อนหน้านี้ มีหลายคนได้ให้ความเห็นว่า AI เป็นอันตราย เช่น Stephen Hawking นักฟิสิกส์ผู้มีชื่อเสียง เคยออกโรงเตือนว่า AI จะเป็นภัยร้ายแรงต่อมนุษยชาติในอนาคต Bill Gates ผู้ก่อตั้ง Microsoft ก็เคยออกมาสนับสนุนแผนการควบคุม AI ของ Elon และพร้อมกำชับให้เราตระหนักถึงภัยจาก AI ให้มากกว่านี้ ในทางกลับกัน หลายคนก็ได้ออกมาโต้ความคิดนี้ Eric Schmidt  ผู้บริหารของ Alphabet และอดีตผู้บริหารของ Google เคยออกมาโต้ให้หยุดแตกตื่นเกี่ยวกับข่าว AI ได้แล้ว  เช่นเดียวกับ Jeff Bezos ผู้บริหารของ Amazon ที่เห็นว่า ยุคนี้เป็นยุคแห่งการพัฒนา AI และจัดเป็นยุคทองของมนุษยชาติ เปรียบได้กับยุค Renaissance เลยทีเดียว 

386px-Stephen_Hawking_050506“The development of full artificial intelligence could spell the end of the human race. We cannot quite know what will happen if a machine exceeds our own intelligence, so we can’t know if we’ll be infinitely helped by it, or ignored by it and sidelined, or conceivably destroyed by it.”
(ข้อความจาก บทความใน BBC ภาพจาก Wikipedia)

400px-Bill_Gates_-_World_Economic_Forum_Annual_Meeting_Davos_2008“A few decades after that though the intelligence is strong enough to be a concern. I agree with Elon Musk and some others on this and don’t understand why some people are not concerned.”
(ข้อความจาก บทความใน BBC ภาพจาก Wikipedia)

Eric_Schmidt_at_the_37th_G8_Summit_in_Deauville_037“But no researchers or technologists want to be part of some Hollywood science-fiction dystopia. The right course is not to panic—it’s to get to work. ”
(ข้อความจาก บทความของ Eric Schmidt ใน Fortune ภาพจาก Wikipedia)

Jeff_Bezos'_iconic_laugh_(cropped)“We are now solving problems with machine learning and artificial intelligence that were … in the realm of science fiction for the last several decades. And natural language understanding, machine vision problems, it really is an amazing renaissance.”
(ข้อความจาก บทความใน CNBC ภาพจาก Wikimedia commons)

บทสนทนาเหล่านี้ทำให้คนหันกลับมาสนใจ AI มากขึ้น ผมจึงอยากบล็อกบันทึกเรื่องราวต่าง ๆ เกี่ยวกับ AI เอาไว้ มาเริ่มตอนแรกก่อนกับขีดจำกัดของ AI

จากบทสนทนาเมื่อสักครู่ ไม่ว่าคนเหล่านั้นจะมอง AI ในแง่ดีหรือร้ายก็ตาม  แต่ทั้งสองฝ่ายล้วนเห็นตรงกันว่า AI จะมีความสามารถสูงมาก ๆ ราวกับว่า AI ไม่มีขีดจำกัดใด ๆ เลย (นักพัฒนา AI ก็เป็นคนเหมือนกันนะ ฮือ ๆ ==”)  หลายคนจึงเข้าใจศักยภาพของ AI ปัจจุบัน สูงกว่าความเป็นจริงไปมาก บล็อกนี้จึงถือโอกาสเล่าว่า การพัฒนา AI รวมถึงเทคโนโลยีคอมพิวเตอร์ทั่วไปด้วย  มีขีดจำกัดสำคัญอะไรรอคอยอยู่ และนักวิทยาศาสตร์จะทะลุขีดจำกัดนั้นได้ด้วยวิธีใด ?

ขอพื้นที่แก้ข่าว

เช่นเดียวกับที่ Eric Schmidt กล่าว  บางคนหวาดกลัว AI เพียงเพราะข่าวทำให้แตกตื่น ความสามารถของ AI ที่ไม่มีอยู่จริงเหล่านี้ ต้องอาศัยการแก้ข่าวอยู่เสมอ ๆ จึงขอพื้นที่ส่วนนี้ในการแก้ข่าวเหล่านั้น

เพื่อความเป็นธรรมกับผู้เขียนข่าวด้าน AI ผมเข้าใจว่า AI เป็นเรื่องใหม่ การพาดหัวข่าวหรือสรุปเนื้อหานั้นจึงเป็นเรื่องยาก ดังนั้นนักข่าวจึงมักอุปมากับสิ่งที่มีอยู่ก่อนแล้ว เช่นบอกว่า AI “ฝัน” ได้ AI “โกหก” ได้ และข่าวพวกนี้ก็แพร่ได้เร็วราวกับไฟลามทุ่งชโลมชแล็ก

มาเริ่มกับข่าวแรก สด ๆ ร้อน ๆ อย่าง AI Facebook เริ่ม “พูดคุย” กันเองได้ และนักวิจัยตั้งใจจะปิด AI ตัวนี้ทิ้ง ข่าวนี้เริ่มในต่างประเทศก่อน ส่วนใหญ่จะอ้างอิง fastcodesign.com จากข่าว AI Is Inventing Languages Humans Can’t Understand. Should We Stop It?  ตามกระแสที่เดี๋ยวนี้ชอบพาดหัวข่าวเป็นคำถาม แต่เนื้อหาก็ยังเป็นกลาง ๆ อยู่ ก่อนพาดหัวข่าวจะค่อย ๆ เพิ่มเรื่องนักวิจัย ‘ถอดปลั๊ก’ ปิด AI ในภายหลัง เช่น Global News จากข่าว  Facebook pulls plug on AI bots after they start inventing their own language’ (คลิปข่าวด้านบน) หลังจากนั้นมาดังในประเทศไทย เช่นข่าว คุยอะไรกัน!? เฟซบุ๊กหยุดทดลอง ‘AI คุย AI’ หลังมันคิดภาษาใช้เองเฉย ในไทยรัฐออนไลน์

แต่เรื่องจริงเป็นอย่างไรกันแน่ ? ก่อนอื่นต้องเข้าใจก่อนว่า AI ของ Facebook นี้ทำขึ้นมาเพื่อจำลองการเจรจาต่อรอง (negotiation) อยู่แล้ว ดังนั้นการที่มัน “ฝึกพูดคุย” แบบแปลก ๆ อย่าง “เอาบอลมาให้ฉันให้ฉันให้ฉัน …” (ฟังดูสยองขวัญดีแฮะ !) นี่ก็เลยเป็นเรื่องธรรมดา เพราะ AI หรือแม้แต่โปรแกรมธรรมดาก็มักจะ loop ซ้ำ ๆ อย่างนี่เสมอ และ Facebook ก็ไม่ได้ปิด AI เพราะควบคุมไม่ได้แต่อย่างใด แต่เพียงแค่จบ Project เท่านั้น เนื้อหาข่าวนี้จึงมีแค่ Facebook ทดลองทำ AI จำลองการพูดคุย และตีพิมพ์ผลการทดลอง แค่นั้น ดังข่าวแก้ใน blognone และ BBC ไทย

คราวนี้มาพูดถึง AI ที่ “โกหก” ได้ แวบแรกก็เหมือนน่ากลัว แต่ลองมาคิดจริง ๆ สมมติจะเจรจาต่อรองกัน แล้วเรารู้ข้อมูล A,B,C แต่ถ้าฝั่งตรงข้ามรู้ข้อมูล C จะเป็นผลเสียต่อเรา เราจะบอกข้อมูล C มั้ยล่ะ ? จริง ๆ เรื่องนี้ไม่ต้องอาศัยการวิเคราะห์ที่ซับซ้อน แค่เขียนกฎแบบง่าย ๆ ก็บอกได้แล้วไม่ควรบอกข้อมูล C ให้ฝั่งตรงข้ามรู้ และนี่แหละที่ข่าวพาดหัวว่า AI “โกหก” ได้ ทั้งที่มันเป็นการวิเคราะห์ทางคณิตศาสตร์ทั่ว ๆ ไปเท่านั้น

มาดูเรื่อง AI “ฝัน” ได้ดีกว่า แวบแรกเหมือนกับว่าเครื่องคอมพิวเตอร์เริ่ม “จินตนาการ” ได้เอง แต่คนพัฒนา AI นี้มาพูดใน TED talk (แนะนำให้ดูกัน เพราะนอกจากจะอธิบายว่า AI “ฝัน” อย่างไรแล้ว ยังอธิบายวิธีการที่ AI วิเคราะห์ภาพด้วย deep learning ได้ดีอีกด้วย) โดยสรุปคือ นักวิจัยบังคับให้ AI ให้มองหารูปแบบบางอย่างที่จริง ๆ ไม่ได้มีอยู่รูปนั้น เช่นมองหารูป “หน้าคน” บนท้องฟ้า และ AI จะ distort ภาพของส่วนเมฆที่คล้าย ๆ รูปหน้าคน แล้วก็เอารูปนี้ feed เป็น input ให้มองหาอีกอย่างหนึ่ง เรื่องนี้จึงเป็นความ art ของนักวิจัย มากกว่าการ “ฝัน”  ของ AI

ขีดจำกัดทางด้านฮาร์ดแวร์

เหตุผลสำคัญที่ AI ปัจจุบันพัฒนาได้อย่างรวดเร็วคือ หน่วยความจำที่ผลิตได้ประมาณเยอะและราคาถูก ในปีค.ศ. 1965 Gordon Moore ผู้ร่วมก่อตั้ง Intel เสนอกฎที่รู้จักกันภายหลังว่า กฎของมัวร์ (Moore’s law) ว่า

Gordon_Mooreปริมาณของ Transistor บน IC จะเพิ่มเป็นเท่าตัวประมาณทุกสองปี

(ภาพจาก Wikipedia)

กฎข้อนี้นำไปอธิบายปรากฏการณ์อื่น ๆ เกี่ยวกับคอมพิวเตอร์ได้หลายแบบ เช่น หน่วยความจำราคาเดียวกัน จะเพิ่มขึ้นเท่าตัวในทุก ๆ 1.5-2 ปี (เช่น เงินเท่ากัน จากเดิมซื้อ SD Card ได้ 8 GB อีก 2 ปีต่อมาก็จะซื้อเพิ่มได้ 16 GB) จำนวนปีอาจจะแตกต่างกันตามแหล่งข้อมูล แต่อย่างช้าก็ 2 ปี โดยแนวคิดสำคัญของกฎนี้คืออัตราการเติบโตจะเป็นเท่าตัวหรือ exponential คือ จาก 1 เป็น 2 เป็น 4 เป็น 8 เป็น 16 ซึ่งรวดเร็วมากเหมือนการโตของแบคทีเรีย

703px-PPTExponentialGrowthof_Computing

กราฟเปรียบเทียบศักยภาพคอมพิวเตอร์กับสมองของสัตว์ต่าง ๆ (ภาพจาก: Wikimedia Commons)

เปรียบเทียบกันว่า

  • ทศวรรษ 2000s คอมพิวเตอร์ในท้องตลาดมีความสามารถเทียบเท่าสมองแมลง
  • ทศวรรษ 2010s คอมพิวเตอร์ในท้องตลาดก็มีความสามารถเทียบเท่าสมองหนู

เราเคยได้ยินกันว่า smart phone มีหน่วยความจำมากกว่าคอมพิวเตอร์ที่ใช้ส่งมนุษย์ไปดวงจันทร์ซะอีก ด้วยอัตราการก้าวกระโดดเช่นนี้ หลายคนจึงคาดการณ์ว่า

  • ทศวรรษ 2020s  คอมพิวเตอร์ในท้องตลาดจะมีความสามารถเทียบเท่าสมองมนุษย์
  • ทศวรรษ 2060s คอมพิวเตอร์ในท้องตลาดอาจมีความสามารถเทียบเท่ากับสมองมนุษย์ทุกคนบนโลกนี้รวมกัน

“ความสามารถ” ในที่นี้หมายถึงความสามารถในการคำนวณและความจำ ซึ่งปัจจุบัน เราก็ไม่แปลกใจแล้วถ้าคอมจะคำนวณหรือจดจำเก่งกว่าเรา

Quantum_computer.svg

ในอนาคต กฎของมัวร์อาจทะลุขีดจำกัด ด้วยควอนตัมคอมพิวเตอร์ (ภาพจาก Wikipedia)

แต่กฎของมัวร์ก็มีขีดจำกัดเหมือนกัน นั่นคือ แม้เราจะทำทรานซิสเตอร์ได้เล็กลงเรื่อย ๆ แต่ก็ไม่มีทางเล็กไปกว่าอะตอม เพื่อให้หลุดพ้นข้อจำกัดนี้ นักวิทยาศาสตร์กำลังพัฒนาควอนตัมคอมพิวเตอร์ (Quantum Computer) คือแทนที่จะคิด bit มีค่าสองค่าคือ 0 กับ 1 อย่างที่ผ่านมา เราก็จะแทนด้วยสถานะทางควอนตัม (Quantum State) ซึ่งหนึ่งสถานะจะแทนค่ามากกว่าสองค่า เป็น Qubit ทำให้บรรจุ “ข้อมูล” ได้มากขึ้นในทรัพยากรขนาดเท่าเดิม

ขีดจำกัดทางด้านซอฟต์แวร์

ถ้ามองคอมพิวเตอร์ในฐานะ “จักรกลคณิตศาสตร์” ก็ไม่น่าแปลกใจที่คอมพิวเตอร์จะมีศักยภาพได้มากขนาดนี้ ปัจจุบันคอมพิวเตอร์สามารถตอบคำถามทั้งแบบข้อความหรือเป็นเสียงได้ เล่นเกมแทนเราได้ วิเคราะห์รูปภาพหรือข้อความได้ใกล้เคียงกับเรา ส่วนหนึ่งเพราะเราสามารถตีความปัญหาเหล่านี้เป็นคณิตศาสตร์ ทำให้สามารถสเกล (scale) วิธีแก้ปัญหาเหล่านี้ไปได้อย่างรวดเร็ว จึงไม่น่าแปลกใจที่หลายคนมองกลับกันว่า หาก AI เป็นอันตราย มันจะขยายสเกลความอันตรายของมันได้อย่างรวดเร็ว

619px-FloorGoban

โกะ (GO) หนึ่งในเกมที่ AI เข้ามาเล่นแข่งกับมนุษย์ได้
(ภาพ: Wikimedia Commons)

แต่ AI ในปัจจุบันยังไม่ถึงขั้นนั้นเพราะ

  • ยังเป็น AI ที่ทำหน้าที่เฉพาะอยู่ คือ ถ้าให้มันเล่นโกะมันก็จะเล่นโกะเป็นอย่างเดียว ทำอย่างอื่นไม่เป็น
  • ยังเป็น “ฟังก์ชัน” ทางคณิตศาสตร์ คือ มีผลลัพธ์ในช่วง (range) ที่คาดเดาได้
    เช่นถ้าออกแบบ AI วิเคราะห์ภาพว่ามีโอกาสกี่ % ที่ภาพนี้จะมี “สุนัข” คำตอบก็จะเป็นตัวเลข 0-100 เท่านั้น มันจะไม่มีทางตอบว่า “พรุ่งนี้ฉันจะฆ่าแก”
TTpIGvo

หมา หรือ มัฟฟิน ? internet meme เพื่ออธิบายว่าการวิเคราะห์ภาพมันยากแค่ไหน (ภาพ: Imgur.com อ้างอิงแบบ fair use)

  • ส่วนใหญ่ยังไม่ต่อพ่วงกับอุปกรณ์ที่เป็นอันตราย เช่น แม้ AI จะอันตรายก็ตาม แต่มันยังไม่ได้ต่อกับขีปนาวุธ ดังนั้นมันก็สั่งยิงขีปนาวุธไม่ได้อยู่ดี เว้นแต่มีคนนำ AI ไปต่อกับขีปนาวุธ ซึ่งก็มีคนนำไปต่อจริง ๆ แล้ว แต่ใช้พัฒนาระบบตัดสินใจเวลานำวิถี และไม่ได้เลือกเป้าหมายเอง เช่น จากข่าว Russia Is Building an AI-Powered Missile That Can Think for Itself แน่นอนว่า เรื่องนี้ต้องหาทางควบคุมจริงจัง อย่างไรก็ดี ปัญหานี้อาจขึ้นอยู่กับผู้ใช้ AI มากกว่า เช่นเดียวกับที่ข่าวได้สรุปท้ายไว้

มี AI แบบหนึ่งซึ่งอาจเกิดขึ้นในอนาคต และหลายคนวิเคราะห์ว่า AI แบบนี้แหละที่จะฉลาดกว่ามนุษย์ เรียกว่า Articial General Intelligence หรือเรียกย่อ ๆ ว่า AGI คือ AI ที่ทำหน้าที่ทุกอย่างได้ คิดแทนโดยไม่ต้องสั่ง เช่น อยู่ดี ๆ เห็นว่าของหมดตู้เย็นก็ซื้อของเข้าบ้านทาง online ให้เอง เห็นบ้านไม่สะอาดก็ดูดฝุ่นเอง เล่นโกะกับเจ้าของได้ อย่างนี้เป็นต้น ถ้าเปรียบเทียบดี ๆ AGI ก็คล้ายกับสมองเรา ที่รองรับหน้าที่ได้หลากหลาย (general purpose) และคิดได้เอง (autonomous) กล่าวอีกนัยหนึ่ง AGI นี้เป็น AI ที่รู้ตัวตน (concious)

20375803_954230808061888_1026808585742293000_n

AGI อาจเป็นก้าวสำคัญในการพัฒนา AI ที่มีความคิด ซึ่งอยู่ใน AI ระดับ III Theory of mind (ภาพจาก: Futurism ภาพขนาดใหญ่กดที่ลิงก์)

แต่การพัฒนา AGI ก็มีขีดจำกัดหนึ่งก็คือ ตัว AI ปัจจุบันยังต้องโคดดิ้ง (coding) เป็นข้อความ การโคดดิ้งเป็นข้อความทำให้ AI แม้ว่าจะเลิศเลอขนาดไหน ยังต้องตกอยู่ภายใต้ข้อจำกัดแห่งทฤษฎีการคำนวณ (Theory of computation)  คือ AI ยังลดรูป (reduce) เป็นโปรแกรมธรรมดาได้อยู่ ในสายตาของทฤษฎีการคำนวณ AI จึงเป็นเพียงวิธีการเขียนโปรแกรมที่สั้นลงแต่ได้ผลลัพธ์เท่าเดิมเท่านั้นเอง  และยังคงมีข้อจำกัดทางคณิตศาสตร์เกิดขึ้น เช่น ปัญหาการหยุด (halting problem) และคำนวณแต่ฟังก์ชันคำนวณ (computable function) ได้เท่านั้น

CMU-brain-research-grant-A-1200x514

คอมพิวเตอร์อาจไม่อยู่บนพื้นฐานของการโค้ดดิ้งด้วย วิศวกรรมย้อนรอยสมองมนุษย์ (ภาพจาก: Futurism)

ถามว่า แล้วเป็นไปได้ไหมที่จะสร้างเครื่องคำนวณที่ไม่อยู่บนพื้นฐานของโค้ดดิ้งเหมือนคอมพิวเตอร์ในปัจจุบัน ? หนึ่งวิธีที่นักวิทยาศาสตร์สนใจคือ การวิศวกรรมย้อนรอย (reverse engineering) สมองมนุษย์ คือ แทนที่จะจำลองความฉลาดของมนุษย์โดยใช้โค้ดดิ้งเหมือนในปัจจุบัน ก็จำลอง (simulate) เซลล์ประสาทต่อกันเป็นสมองมนุษย์ไปเลย วิธีนี้ต้องเข้าใจการทำงานของสมองมนุษย์ ซึ่งแม้ปัจจุบันเรายังเข้าใจมันน้อยนัก แต่นักวิทยาศาสตร์หลายคนเชื่อว่า เราอาจเข้าใจการทำงานของสมองมนุษย์ได้ภายในศตวรรษนี้

อ่านเรื่องการวิศวกรรมย้อนรอยสมองมนุษย์เพิ่มเติมได้จากข่าว Scientists Begin Work on Reverse-Engineering the Brain และแนะนำหนังสือ Physics of the Future เขียนโดยมิชิโอะ คากุ (Michio Kaku) แปลเป็นไทยชื่อ “ฟิสิกส์เพื่ออนาคต” แปลโดย ดร. ภาณุ ด่านวานิชกุล พิมพ์โดยสำนักพิมพ์มติชน  ซึ่งเขียนถึงรายละเอียดของเรื่องนี้ไว้หนึ่งบทเลยทีเดียว

ขีดจำกัดทางด้านสามัญสำนึก

ที่ผ่านมา เราทราบว่าคอมพิวเตอร์จะมีหน่วยคำนวณและความจำมากขึ้นเรื่อย ๆ (จากหัวข้อขีดจำกัดทางด้านฮาร์ดแวร์) และ คอมพิวเตอร์ทำงานได้แทบทุกอย่างตราบเท่าที่เปลี่ยนเป็นฟังก์ชันคำนวณได้ (จากหัวข้อขีดจำกัดทางซอฟต์แวร์) สมมติว่าคอมพิวเตอร์คำนวณหรือจดจำเก่งกว่าเรา และทำทุกอย่างตราบเท่าที่แปลงเป็นสูตรหรือสมการทางคณิตศาสตร์แล้ว คอมพิวเตอร์จะมี “ความสามารถ” เท่ามนุษย์หรือยัง ? 

ปัญหานี้ขบคิดกันมานานตั้งแต่สมัยสร้างคอมพิวเตอร์ใหม่ ๆ โน้นแล้ว อลัน ทัวริง (Alan Turing) บิดาแห่งทฤษฎีการคำนวณและคอมพิวเตอร์ เคยเสนอวิธีทดสอบเรื่องนี้ เรียกว่า การทดสอบทัวริง (Turing test) คือให้คนทดสอบ chat กับฝั่งตรงข้าม ซึ่งฝั่งตรงข้ามอาจจะเป็นคนจริง ๆ หรือ AI ที่ใช้ทดสอบ ถ้าคนทดสอบแยกไม่ออกว่าฝั่งตรงข้ามเป็นคนจริง ๆ หรือเป็น AI แสดงว่า AI นั้น “ชนะ” การทดสอบทัวริง

Turing_Test_version_3

การทดสอบทัวริง หนึ่งในวิธีทดสอบว่าคอมพิวเตอร์มีความสามารถเทียบเท่ามนุษย์หรือไม่ ? (ภาพ: Wikimedia Commons)

แต่แต่ใช่ว่า AI ที่ฉลาด จะชนะการทดสอบทัวริงได้ ยกตัวอย่างเช่น ถ้า AI ตอบทุกคำถามได้ เราจะพอจับไต๋ได้ว่า AI นี้ไม่ใช่มนุษย์ อย่างนี้เป็นต้น ดังนั้น การมี “ความสามารถ” เทียบเท่ามนุษย์ จึงอาจไม่ใช่ความฉลาดในการจดจำหรือคำนวณ แต่เป็นความสามารถนอกเหนือจากนั้นเช่น “สามัญสำนึก (common sense)” หรือ “การรู้ตัวตน (conciousness)”

สำหรับการพัฒนา AI แล้ว การเข้าใจสามัญสำนึกถือเป็นงานท้าทายอย่างหนึ่ง เพราะมันไม่ใช่การจดจำหรือการคำนวณ ตัวอย่างสามัญสำนึก เช่น

  • เด็ก ๆ ชอบของหวาน แต่ไม่ชอบการลงโทษ
  • เส้นเชือกดึงได้ ดันไม่ได้ ปุ่มกดดันได้ ดึงไม่ได้
  • ถ้าชวนเพื่อนไปดูหนัง แล้วเพื่อนตอบว่า “พรุ่งนี้มีสอบ” แปลว่าปฏิเสธ

เรารู้เรื่องพวกนี้จากประสบการณ์และการวิเคราะห์ บางเรื่องเราอาจต้องผิดพลาดมาก่อนตอนเด็ก ๆ (เช่น โคนไอศกรีมเป็นสิ่งที่กินได้) แต่สักพักเราจะเรียนรู้ โดยไม่จำเป็นต้องมีคนมาบอกตรง ๆ (ไม่เหมือน 1+1=2 อันนี้ต้องมีคนบอก) แต่บางเรื่องเราไม่จำเป็นต้องผิดมาก่อน เราก็รู้ได้เอง เช่น เชือกดันไม่ได้ วิธียืนบนพื้นเอียง ๆ แล้วไม่ล้ม ราวกับว่าเรื่องพวกนี้เรารู้มาตั้งแต่ในท้องแม่แล้ว

วิธีหนึ่งในการสอนสามัญสำนึกให้คอมพิวเตอร์ก็คือ การให้มัน “จำ” คำตอบทั้งหมด มีความพยายามทำโครงการ Open Mind Common Sense เป็นสารานุกรมที่พยายามใส่สามัญสำนึกทั้งหมด แต่สามัญสำนึกในชีวิตประจำวันมีมากมายจนใส่เท่าไหร่ก็ไม่หมดสักที ดังนั้นเป็นไปได้หรือไม่ที่จะให้คอมพิวเตอร์สร้างสามัญสำนึกด้วยตัวของมันเอง กล่าวอีกนัยหนึ่งคือ การให้คอมพิวเตอร์มีตัวตน (conciousness)

ขีดจำกัดทางด้านการู้ตัวตน

การรู้ตัวตน (consciousness) อาจเป็นขีดจำกัดหนึ่งของ AI เพราะอยู่นอกเหนือการคำนวณ การจดจำ หรือแม้แต่การให้เหตุผล แม้มนุษย์ด้วยกันเอง ก็ยังไม่แน่ใจว่าตัวตนเกิดขึ้นมาจากอะไรหรือทำงานอย่างไร ? ยิ่งไม่ต้องถามว่า คอมพิวเตอร์จะมีตัวตนได้อย่างไร ? จำเป็นหรือไม่ที่คอมพิวเตอร์ต้องมีตัวตน ? หรือ คอมพิวเตอร์จะมีตัวตนขึ้นมาเองหรือไม่ ? เรื่องนี้เฉียด ๆ จะเป็นคำถามทางปรัชญาที่มีได้หลายสมมติฐาน ตามกรอบความคิดความเชื่อของแต่ละคน ในที่นี้ จึงลองยกสมมติฐานเรื่อง AI กับการรู้ตัวตนมา 3 ทาง ที่เห็นว่าน่าสนใจมาให้สำรวจกัน

1. เชื่อว่า หาก AI มีหน่วยคำนวณและหน่วยความจำมาก ๆ การรู้ตัวตนจะเกิดขึ้นมาโดยอัตโนมัติ

คำถามนี้อาจย้อนไปถึงประเด็นการถือกำเนิดของมนุษยชาติ เรารู้ว่ามนุษย์คือสิ่งมีชีวิตที่น้ำหนักสมองต่อน้ำหนักตัวมากที่สุด แต่ถามว่าสมองที่ “ใหญ่” นี้จะทำให้มนุษย์ฉลาดขึ้นโดยอัตโนมัติ จริงหรือไม่ ? สมมติฐานนี้เชื่อว่า “จริง” คือถ้าสมอง “ใหญ่” พอ การรู้ตัวตนจะเกิดขึ้นมาโดยอัตโนมัติ เช่น งานวิจัยที่ว่า ตัวตนอาจเป็น ‘ผลข้างเคียง’ ของการเพิ่มเอ็นโทรปีในสมอง

brain-951874_960_720

ถ้าสมองใหญ่พอ ตัวตนจะเกิดขึ้นมาโดยอัตโนมัติหรือไม่ ? (ภาพจาก: pixabay.com)

เรื่องนี้คล้ายคลึงกับปัญหาทางปรัชญาที่เรียกว่า ปัญหากาย-จิต (Mind-body problem) คือ จิตเป็นเพียงสมบัติทางกายภาพที่โผล่ขึ้นมา (emerge property) จากสมอง หากสมองมีโครงสร้างที่ถูกต้องดีพอ  หรือเป็นคล้าย ๆ ดวงจิตหรือวิญญาณที่หลุดออกจากโลกทางกายภาพโดยสิ้นเชิง ? แต่ในปัจจุบัน เราสามารถต่อยอดคำถามเรื่อง ‘จิต’ ไปว่า เราสามารถแปลงการทำงานของสมองด้านการรู้ตัวตนเป็นโค้ดทั้งหมดได้หรือไม่ หรือมีส่วนความคิด “พิเศษ” (อาจมองว่าเป็น ‘จิต’) ที่แปลงเป็นโค้ดไม่ได้ ? เพราะถ้าสมองมนุษย์เป็นเพียงกฎที่แปลงเป็นโค้ดได้ทั้งหมด เราคงสร้างสมองมนุษย์ภายใต้เทคโนโลยีปัจจุบันได้ แต่หากว่าสมองมนุษย์มีส่วนความคิด “พิเศษ” ที่ตีความเป็นโค้ดไม่ได้ เราก็อาจจำลองสมองมนุษย์ด้วยเทคโนโลยีปัจจุบันไม่ได้เลย เว้นดึงเอาส่วน “พิเศษ” นั้นมาต่อกับ AI เหมือนดึงเอาอัญมณีต่างดาวมาต่อกับ AI ในภาพยนตร์  Avengers: Age of Ultron ซึ่งภาพยนตร์เรื่องนี้ก็สอนให้เรารู้ว่า อย่าเอาอัญมณีต่างดาวมาต่อกับ AI ซี้ซั้ว
 
เรื่องที่น่าคิดต่อคือ แล้วถ้า AI มี “สมอง” คือหน่วยคำนวณและหน่วยความจำ ที่ใหญ่เกินกว่าที่ต้องใช้สร้างตัวตนแบบมนุษย์แล้ว  AIจะวิวัฒนาการไปในรูปแบบใด ? (เรื่องนี้หากมีเวลาว่าง ก็เอาไปคิดเป็นปัญหาปรัชญาได้) อย่างไรก็ดี เพื่อจะตอบคำถามตั้งต้น เราจำเป็นต้องศึกษาการทำงานของสมอง เช่น วิศวกรรมย้อนรอยสมองมนุษย์ อาจช่วยให้เราเข้าใจการทำงานของสมองมนุษย์และตอบคำถามนี้ได้มากขึ้น

2. เชื่อว่า AI อาจเพียงแสดงเหมือน (act like) ว่าตนเองมีตัวตนเท่านั้น

John Searle เปรียบเทียบเรื่องนี้โดยใช้การทดลองทางความคิดห้องจีน (chinese room thought experiment) กล่าวคือ มีห้องห้องหนึ่งบรรจุ พจนานุกรมจีน หลักไวยากรณ์จีน และฐานข้อมูลอื่น ๆ อย่างเพียงพอ แล้วให้คนสอดคำถามเป็นภาษาจีนเข้าห้องมา แล้วเราก็ตอบคำถามเป็นภาษาจีนส่งกลับไป เราไม่จำเป็นต้อง ‘รู้’ ภาษาจีน แต่เราก็แสดงเหมือน (act like) ว่าเราเป็นคนจีนได้

ChineseRoom2009_CRset

เราอาจแสดงว่าเรารู้ภาษาจีน ถ้าอยู่ในห้องที่มีพจนานุกรมจีน และหนังสืออื่น ๆ เพียงพอ (ภาพจาก: wikimedia commons)

สมมติฐานนี้ต่อยอดมาจากความเชื่อที่ว่า AI อาจไม่สามารถ ‘สร้างตัวตน’ ได้ โดยเรียก AI ที่สามารถสร้างตัวตนได้ว่า strong AI และ AI ที่ไม่สามารถสร้างตัวตนได้ว่า weak AI เรื่องนี้สร้างปัญหาทางปรัชญาให้ขบคิดต่อ เรียกว่า ซอมบี้ทางปรัชญา (philosophical zombie) ปัญหาคือ สมมติว่าหุ่นยนต์แสดงเหมือน (act like) ว่ามี ‘ตัวตน’ แล้ว เราจะแยกหุ่นยนต์ออกจากมนุษย์ได้หรือไม่ ? แล้วเราควรจะปฏิบัติต่อหุ่นยนต์นั้นเหมือนหรือแตกต่างจากมนุษย์อย่างไร ? นี่เป็นปัญหาทางปรัชญาที่น่าขบคิดต่อไป

3. เชื่อว่า AI อาจใช้ ‘ตัวตน’ ร่วมกับมนุษย์

สมมติฐานนี้มองว่า AI เป็นเครื่องมือของมนุษย์ เช่นเดียวกับมีดหรือไฟ จะใช้เป็นประโยชน์หรือโทษก็ขึ้นอยู่กับผู้ใช้ สมมติฐานนี้ก็ยังสอดคล้องกับความเป็นจริงในปัจจุบัน เช่น เราใช้ AI เป็นเครื่องมือช่วยวิเคราะห์ข้อมูล เลยลดจำนวนคนวิเคราะห์จาก 30 คน เหลือแค่คนเดียว แต่ยังใช้ไม่ถึงขั้นให้วิเคราะห์อัตโนมัติจนไม่ใช่คนเลย 
แต่ที่น่าสนใจคือ AI อาจใช้ ‘ตัวตน’ ร่วมกับมนุษย์มากกว่าหนึ่งคน กล่าวอีกนัยหนึ่งก็คือ AI กำลังสะท้อน ‘ตัวตนของสังคม’ ที่ตนเองเรียนรู้ เช่น ข่าว Tay – AI ของ Microsoft ที่เรียนรู้การสนทนาจาก Twitter จนมีพฤติกรรมแบบเหยียดเชื้อชาติ (racism) (จากข่าว  Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day) หรือปรากฏการณ์ Simsimi ภาษาไทย ที่ตอนหลังเริ่มแสดงพฤติกรรม “เกรียน” ตามที่ผู้ใช้สอน

AI ไม่ได้สะท้อนพฤติกรรมของสังคมที่ได้เรียนรู้มาเพียงอย่างเดียว หากแต่มีบทบาทกำหนดพฤติกรรมของสังคมด้วย เรื่องที่กำลังเป็นที่สนใจตอนนี้คือ เศรษฐกิจแห่งความสนใจ (attraction economy) กล่าวถึงปัญหาการที่บริษัทคอมพิวเตอร์เจ้าใหญ่ ๆ อย่าง Google Facebook Twitter กำลังแข่งกันจัดอันดับ (ranking) แจ้งเตือน (notification) ฯลฯ เพื่อเรียกร้องและจัดลำดับความสนใจ (attraction) ของเรา จนเราเหมือนจะโดน social network เหล่านี้ควบคุมวิถีชีวิตประจำวันไปแล้ว แถมยังกำหนดกระแสสังคมที่น่าสนใจในวันนั้น ๆ ด้วย เช่น ดราม่าต่าง ๆ

tree-200795_960_720

คอมพิวเตอร์อาจฝังราก ‘ตัวตน’ ไว้ในสังคมมนุษย์ ผ่าน social network (ภาพจาก: pixabay.com)

ที่น่าจับตาก็คือ การที่ AI ใช้ ‘ตัวตน’ ร่วมกับมนุษย์ จะเกิดผลอย่างไรในอนาคต ?เพราะสถานการณ์นี้ได้เกิดขึ้นตอนนี้แล้ว เราอาจตอบคำถามนี้ได้ในยุคนี้ ด้วยการวิจัยทางสังคมศาสตร์และการขบคิดถกเถียงอย่างเป็นระบบ กับพวกเราที่หลายคนยังเกิดก่อน social network และเติบโตมาพร้อมกับมัน

ความสัมพันธ์ระหว่างการรู้ตัวตนกับขีดจำกัดทางด้านคอมพิวเตอร์

ที่ผ่านมา เราได้นำเสนอสมมติฐาน AI กับการรู้ตัวตนมา 3 แบบ โดยสมมติฐานที่นำเสนอมา ยังสัมพันธ์ขีดจำกัดทางด้านฮาร์ดแวร์ และทางด้านซอฟต์แวร์ ที่เคยนำเสนอมาก่อนหน้านั้นอีกด้วย นั่นคือ

(1) หากเชื่อว่า หาก AI มีหน่วยคำนวณและหน่วยความจำมาก ๆ การรู้ตัวตนจะเกิดขึ้นมาโดยอัตโนมัติ จะมองว่าฮาร์ดแวร์ไม่เป็นอุปสรรคต่อการรู้ตัวตน ซึ่งอาจแตกออกเป็น 2 แบบย่อย คือ เชื่อว่าฮาร์ดแวร์อาจมีขีดจำกัด แต่การสร้าง ‘ตัวตน’ ไม่จำเป็นต้องถึงขีดจำกัดของฮาร์ดแวร์ หรือ ฮาร์ดแวร์จะไม่มีขีดจำกัดเลย และยังมองว่า ซอฟต์แวร์ไม่เป็นอุปสรรคในการสร้างตัวตนเลย เราเพียงแค่รอให้หน่วยคำนวณและหน่วยความจำมีปริมาณมากและราคาถูกเท่านั้น

(2) หากเชื่อว่า AI อาจเพียงแสดงเหมือน (act like) ว่าตนเองมีตัวตนเท่านั้น จะมองว่าคอมพิวเตอร์อาจมีขีดจำกัดทางซอฟต์แวร์อยู่ คือ ไม่ว่าทำอย่างไร คอมพิวเตอร์ก็ไม่สามารถมี ‘ตัวตน’ ได้เลย คอมพิวเตอร์เพียงแต่มีหน่วยคำนวณหรือมีหน่วยความจำมากขึ้นเรื่อย ๆ เท่านั้น จึงได้แต่แสดงผลลัพธ์ (act) คล้ายมนุษย์แทน โดยใช้ฐานข้อมูลมหาศาล คล้าย ๆ กับ Google Translate คือค่อย ๆ แปลดีขึ้นเรื่อย ๆ โดยใช้ฐานข้อมูลมหาศาล แต่ก็ยังมีบางข้อความที่แปลแล้วไม่เหมือนคนซักที 

(3) หากเชื่อว่า AI อาจใช้ตัวตนร่วมกันมนุษย์ จะมองว่า AI มีขีดจำกัดทางฮาร์ดแวร์อยู่ ซึ่งอาจแบ่งออกเป็น 2 แบบย่อย คือ เชื่อว่าทั้งซอฟต์แวร์และฮาร์ดแวร์มีขีดจำกัด หรือ เชื่อว่าคอมพิวเตอร์อาจสามารถสร้าง ‘ตัวตน’ ได้เช่นกัน แต่ต้องใช้ทรัพยากรมหาศาล เช่น ต้องใช้ทรายทุกเม็ดบนโลก จึงจะสร้างคอมพิวเตอร์ที่มี ‘ตัวตน’ ได้หนึ่งเครื่อง ดังนั้นจึงสร้างจริงไม่ได้อยู่ดี

ดังนั้น ความสัมพันธ์ระหว่างการรู้ตัวตนมากับขีดจำกัดทางด้านคอมพิวเตอร์ จึงสรุปได้เป็นตารางด้านล่าง

ซอฟต์แวร์มีขีดจำกัดหรือไม่ ?
ไม่มีขีดจำกัด มีขีดจำกัด
ฮาร์ดแวร์
มีขีดจำกัด
หรือไม่ ?
ไม่มีขีดจำกัด (1) AI จะมีตัวตน (2) AI จะคล้ายคน
มีขีดจำกัด (3) AI จะใช้ ‘ตัวตน’ ร่วมกับคน

จะเห็นได้ว่า ขีดจำกัดทางคอมพิวเตอร์มีบทบาทกำหนดลักษณะของ AI ในอนาคต และลักษณะของ AI ก็จะเป็นตัวกำหนดสังคม และสังคมก็อาจไปกำหนดขีดจำกัดทางคอมพิวเตอร์อีกที (เช่น พอเริ่มเห็นความเสี่ยงจาก AI อาจมีการประชุมและออกนโยบายต่าง ๆ เช่น ห้ามพัฒนาให้คอมพิวเตอร์รู้ตัวตน ฯลฯ เพื่อป้องกันความเสี่ยง คล้าย ๆ กับการจัดการกับอาวุธนิวเคลียร์) แต่จากขีดจำกัดต่าง ๆ ทั้งทางคอมพิวเตอร์และทางสังคม ที่ยกขึ้นมาข้างต้น เราจะเห็นได้ว่า กว่า AI จะพัฒนาไปถึงจุดที่รู้ตัวตนนั้น ต้องผ่านขีดจำกัดมากมาย และเป็นเรื่องที่ยากกว่าที่หลายคนคิด

Advertisements
This entry was posted in บทความ and tagged , , , , . Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s