เพื่อปกป้องเราจากความเสี่ยงของปัญญาประดิษฐ์ขั้นสูง เราต้องดำเนินการเดี๋ยวนี้

เพื่อปกป้องเราจากความเสี่ยงของปัญญาประดิษฐ์ขั้นสูง เราต้องดำเนินการเดี๋ยวนี้

ปัญญาประดิษฐ์สามารถเล่นหมากรุก ขับรถ และวินิจฉัยปัญหาทางการแพทย์ได้ ตัวอย่าง ได้แก่ AlphaGoของ Google DeepMind รถยนต์ไร้ คนขับของ Tesla และWatson ของ IBM ปัญญาประดิษฐ์ประเภทนี้เรียกว่า Artificial Narrow Intelligence (ANI) – ระบบที่ไม่ใช่มนุษย์ที่สามารถทำงานเฉพาะอย่างได้ เราพบประเภทนี้ทุกวันและการใช้งานก็เพิ่มขึ้นอย่างรวดเร็ว เมื่อ AI ตอบสนองประสบการณ์การช็อปปิ้งของคุณ AI จะรู้ว่าคุณซื้ออะไร – และคุณควรซื้ออะไร

แต่ในขณะที่มีการแสดงความสามารถที่น่าประทับใจมากมาย 

เราก็เริ่มเห็นปัญหา เช่น กัน กรณีที่เลวร้ายที่สุดเกี่ยวข้องกับรถทดสอบไร้คนขับชนคนเดินถนนในเดือนมีนาคม คนเดินถนนเสียชีวิตและเหตุการณ์ยังอยู่ระหว่างการสอบสวน

ปัญญาประดิษฐ์ทั่วไป ( AGI ) จะมีอำนาจในการคำนวณขั้นสูงและปัญญาระดับมนุษย์ ระบบ AGI จะสามารถเรียนรู้ แก้ปัญหา ปรับตัว และพัฒนาตนเองได้ พวกเขายังจะทำงานนอกเหนือจากที่พวกเขาได้รับการออกแบบมา

ที่สำคัญ อัตราการพัฒนาของพวกมันอาจเพิ่มขึ้นแบบทวีคูณเมื่อพวกมันก้าวหน้ากว่าผู้สร้างที่เป็นมนุษย์มาก การเปิดตัวของ AGI อาจนำมาซึ่ง Artificial Super Intelligence ( ASI ) ได้อย่างรวดเร็ว

แม้ว่ายังไม่มีระบบ AGI ที่ทำงานได้อย่างสมบูรณ์ แต่ก็มีการคาดกันว่าระบบดังกล่าวจะอยู่กับเราทุกที่ระหว่างปี2029 ถึงปลายศตวรรษนี้

สิ่งที่ดูเหมือนเกือบจะแน่นอน ก็คือพวกเขาจะมาถึงในที่สุด เมื่อพวกเขาทำเช่นนั้น มีความกังวลตามธรรมชาติอย่างมากว่าเราจะไม่สามารถควบคุมพวกเขาได้ ไม่ต้องสงสัยเลยว่าระบบ AGI สามารถเปลี่ยนแปลงมนุษยชาติได้ แอปพลิเคชั่นที่มีประสิทธิภาพมากขึ้น ได้แก่ การรักษาโรค การแก้ปัญหาที่ซับซ้อนทั่วโลก เช่น การเปลี่ยนแปลงสภาพภูมิอากาศและความมั่นคงทางอาหาร และการริเริ่มเทคโนโลยีที่เฟื่องฟูไปทั่วโลก

แต่ความล้มเหลวในการดำเนินการควบคุมที่เหมาะสมอาจนำไปสู่ผลที่ตามมาอย่างหายนะ

แม้จะมีสิ่งที่เราเห็นในภาพยนตร์ฮอลลีวูด ภัยคุกคามที่มีอยู่ไม่น่าจะเกี่ยวข้องกับหุ่นยนต์นักฆ่า ปัญหาจะไม่ใช่ความมุ่งร้าย แต่เป็นปัญหาด้านสติปัญญา ศาสตราจารย์ Max Tegmark จาก MIT เขียนในหนังสือLife 3.0: Being Human in the Age of Artificial Intelligence เมื่อ ปี 2017

ที่นี่วิทยาศาสตร์ของระบบเครื่องจักรมนุษย์หรือที่เรียกว่าปัจจัยมนุษย์

และการยศาสตร์จะมาถึงเบื้องหน้า ความเสี่ยงจะเกิดขึ้นจากข้อเท็จจริงที่ว่าระบบอัจฉริยะจะระบุวิธีการทำสิ่งต่าง ๆ ที่มีประสิทธิภาพมากขึ้น สร้างกลยุทธ์ของตนเองเพื่อให้บรรลุเป้าหมาย หรือแม้แต่พัฒนาเป้าหมายของตนเอง

ระบบ AGI ที่ได้รับมอบหมายให้ป้องกันเอชไอวีตัดสินใจที่จะกำจัดปัญหาด้วยการฆ่าทุกคนที่เป็นพาหะของโรค หรือผู้ที่ได้รับมอบหมายให้รักษามะเร็งให้หายขาดก็ตัดสินใจที่จะฆ่าทุกคนที่มีความบกพร่องทางพันธุกรรมสำหรับมัน

โดรนทางทหาร AGI ที่เป็นอิสระตัดสินใจว่าวิธีเดียวที่จะรับประกันว่าเป้าหมายของศัตรูจะถูกทำลายคือการกวาดล้างชุมชนทั้งหมด

AGI ที่ปกป้องสิ่งแวดล้อมตัดสินใจว่าวิธีเดียวที่จะชะลอหรือย้อนกลับการเปลี่ยนแปลงสภาพภูมิอากาศคือการกำจัดเทคโนโลยีและมนุษย์ที่กระตุ้นให้เกิดการเปลี่ยนแปลง

สถานการณ์เหล่านี้ทำให้เกิดความน่าสะพรึงกลัวของระบบ AGI ที่แตกต่างกันซึ่งต่อสู้กันเอง ซึ่งไม่มีสิ่งใดที่คำนึงถึงมนุษย์เป็นหลัก

อนาคตของ dystopian ต่างๆ ได้ก้าวหน้าไป รวมทั้งอนาคตที่มนุษย์ล้าสมัยในที่สุด พร้อมกับการสูญพันธุ์ของเผ่าพันธุ์มนุษย์ ที่ตาม มา

คนอื่นๆ ส่งต่อความสุดโต่งน้อยลงแต่ยังคงหยุดชะงักอย่างมีนัยสำคัญ รวมถึงการใช้ AGI ในทางที่ผิดเพื่อการโจมตีของผู้ก่อการร้ายและทางไซเบอร์การกำจัดความจำเป็นในการทำงานของมนุษย์และการสอดส่องดูแลมวลชนซึ่งเป็นเพียงส่วนน้อยเท่านั้น

ดังนั้น จึงมีความจำเป็นสำหรับการตรวจสอบที่เน้นมนุษย์เป็นศูนย์กลางถึงวิธีที่ปลอดภัยที่สุดในการออกแบบและจัดการ AGI เพื่อลดความเสี่ยงและเพิ่มผลประโยชน์สูงสุด

วิธีการควบคุม AGI

การควบคุม AGI นั้นไม่ตรงไปตรงมาเหมือนกับการใช้การควบคุมประเภทเดียวกันที่มักจะควบคุมมนุษย์

การควบคุมพฤติกรรมของมนุษย์หลายอย่างขึ้นอยู่กับจิตสำนึก อารมณ์ และการประยุกต์ใช้ค่านิยมทางศีลธรรมของเรา AGI ไม่จำเป็นต้องมีคุณสมบัติเหล่านี้เพื่อสร้างความเสียหายให้กับเรา รูปแบบการควบคุมในปัจจุบันยังไม่เพียงพอ

มีชุดควบคุมสามชุดที่ต้องพัฒนาและทดสอบทันที:

การควบคุมที่จำเป็นเพื่อให้แน่ใจว่าผู้ออกแบบและพัฒนาระบบ AGI สร้างระบบ AGI ที่ปลอดภัย

การควบคุมที่ต้องสร้างขึ้นในตัว AGI เช่น “สามัญสำนึก” ศีลธรรม ขั้นตอนการปฏิบัติงาน กฎการตัดสินใจ และอื่นๆ

การควบคุมที่ต้องเพิ่มเข้าไปในระบบที่กว้างขึ้นซึ่ง AGI จะดำเนินการ เช่น กฎระเบียบ หลักปฏิบัติ ขั้นตอนการปฏิบัติงานมาตรฐาน ระบบตรวจสอบ และโครงสร้างพื้นฐาน

ปัจจัยมนุษย์และการยศาสตร์นำเสนอวิธีการที่สามารถใช้ในการระบุ ออกแบบ และทดสอบการควบคุมดังกล่าวได้ก่อนที่ระบบ AGI จะมาถึง

ตัวอย่างเช่น เป็นไปได้ที่จะจำลองการควบคุมที่มีอยู่ในระบบหนึ่งๆ เพื่อจำลองลักษณะการทำงานที่เป็นไปได้ของระบบ AGI ภายในโครงสร้างการควบคุมนี้ และระบุความเสี่ยงด้านความปลอดภัย

สิ่งนี้จะช่วยให้เราระบุตำแหน่งที่ต้องการการควบคุมใหม่ ออกแบบ และสร้างใหม่เพื่อดูว่าความเสี่ยงจะถูกลบออกหรือไม่

นอกจากนี้ แบบจำลองความรู้ความเข้าใจและการตัดสินใจของเรายังสามารถใช้เพื่อให้แน่ใจว่า AGIs ทำงานอย่างเหมาะสมและมีคุณค่าทางมนุษยธรรม

ลงมือทำทันที ไม่ใช่ในภายหลัง

การวิจัยประเภทนี้กำลังดำเนินการอยู่แต่ยังมีไม่เพียงพอและไม่มีระเบียบวินัยที่เกี่ยวข้องเพียงพอ

อ่านเพิ่มเติม: ทำไม R2D2 ถึงเป็นครูของลูกคุณได้เร็วกว่าที่คุณคิด

แม้แต่ผู้ประกอบการด้านเทคโนโลยีที่มีชื่อเสียงอย่าง Elon Musk ก็ได้เตือนถึง “ วิกฤตที่มีอยู่จริง ” ที่มนุษยชาติต้องเผชิญจาก AI ขั้นสูง และได้พูดถึงความจำเป็นในการควบคุม AI ก่อนที่จะสายเกินไป

ทศวรรษหน้าหรือมากกว่านั้นเป็นช่วงเวลาวิกฤต มีโอกาสที่จะสร้างระบบ AGI ที่ปลอดภัยและมีประสิทธิภาพซึ่งจะมีประโยชน์มากมายต่อสังคมและมนุษยชาติ

ในขณะเดียวกัน แนวทางการทำธุรกิจตามปกติที่เราตามทันความก้าวหน้าทางเทคโนโลยีอย่างรวดเร็วอาจนำไปสู่การสูญพันธุ์ของเผ่าพันธุ์มนุษย์ บอลอยู่ในสนามของเรา แต่จะไม่นาน

สล็อตเว็บตรง100 / ดูหนังฟรี / 50รับ100