ผู้เชี่ยวชาญเตือนถึงอันตรายของปัญญาประดิษฐ์! ปัญญาประดิษฐ์ ภัยคุกคามที่อาจเกิดขึ้นต่อการอยู่รอดของมนุษยชาติ ซุปเปอร์เครื่องคิดเลขอาจเป็นภัยคุกคามได้หรือไม่?

ลิขสิทธิ์ภาพประกอบคิดสต๊อกคำบรรยายภาพ การอยู่ร่วมกันของมนุษย์และเครื่องจักรเป็นแนวทางหนึ่งในการพัฒนามนุษย์

เครื่องจักรอัจฉริยะได้เรียนรู้ที่จะป้าน เอาชนะมืออาชีพในการเล่นหมากรุกหรือหมาก และแปลและจดจำเสียงของมนุษย์ ทุกสัปดาห์เราเรียนรู้เกี่ยวกับการหาประโยชน์ใหม่ๆ ของโปรแกรมคอมพิวเตอร์ที่สามารถทำการวินิจฉัยทางการแพทย์ วาดรูป เช่นเดียวกับแรมแบรนดท์ ร้องเพลงหรือสร้างข้อความได้อยู่แล้ว ผู้คนควรกลัวปัญญาประดิษฐ์หรือไม่?

หัวข้อเรื่องปัญญาประดิษฐ์ (AI) กลายเป็นหัวข้อที่ “ร้อนแรง” อย่างแท้จริงในช่วงไม่กี่ปีที่ผ่านมา นักวิทยาศาสตร์ให้ความสำคัญกับการพัฒนาอย่างรวดเร็วของโครงข่ายประสาทเทียม (หนึ่งในสาขาการวิจัยในสาขาปัญญาประดิษฐ์) ซึ่งในทางกลับกันก็เป็นไปได้ด้วยการถือกำเนิดของคอมพิวเตอร์ที่ทรงพลัง

“ตั้งแต่ช่วงต้นทศวรรษ 2010 โดยได้รับแรงหนุนจากความก้าวหน้าที่น่าประทับใจในโครงข่ายประสาทเทียมหลายชั้น (โดยหลักแล้วจะเป็นแบบบิดและเกิดขึ้นอีก) พื้นที่นี้ได้รับความสนใจอย่างมากจากนักวิทยาศาสตร์ วิศวกร และนักลงทุนเหมือนกัน” ผู้เขียนให้ความเห็น หนึ่งในโปรแกรมหมากรุกของรัสเซีย ในวิธีการเรียนรู้ของเครื่อง Sergei Markov

ชุมชนวิทยาศาสตร์สามารถโต้เถียงเกี่ยวกับช่วงเวลาของการปรากฏตัวของเครื่องจักรอัจฉริยะ แต่พวกเขาเห็นพ้องต้องกันในเรื่องหนึ่ง: การพัฒนาเทคโนโลยีจะมีผลกระทบอย่างไม่มีเงื่อนไขต่อสังคม เศรษฐกิจ และความสัมพันธ์ระหว่างผู้คนในอนาคต มีการเรียกร้องให้พิจารณาหลักการทางจริยธรรมของการพัฒนาปัญญาประดิษฐ์ เพื่อให้แน่ใจว่าปัญญาประดิษฐ์ได้รับการพัฒนาไปในทิศทางที่ปลอดภัยสำหรับมนุษย์

ม.นี้ได้เตรียมเนื้อหาไว้เป็นคำตอบสำหรับคำถาม, ส่งแล้วโดยผู้อ่านของเราเกี่ยวกับความสำเร็จทางวิทยาศาสตร์- คุณสามารถถามคำถามของคุณในหัวข้ออื่น ๆ โดยใช้ลิงก์เหล่านี้ ( , ).

ผลกระทบทางเศรษฐกิจและผลกระทบต่อตลาดแรงงาน

นิยายวิทยาศาสตร์และฮอลลีวูดได้กำหนดแนวคิดเรื่อง "ปัญญาประดิษฐ์" ให้เป็นสิ่งมีชีวิตรูปแบบใหม่บนโลกที่จะตกเป็นทาสของมนุษยชาติในเมทริกซ์หรือเตรียมนิวเคลียร์วันโลกาวินาศ เทอร์มิเนเตอร์จะจัดการผู้รอดชีวิตให้เสร็จสิ้น

ลิขสิทธิ์ภาพประกอบเก็ตตี้อิมเมจคำบรรยายภาพ มนุษยชาติจะตายจาก Skynet หรือไม่?

ในความเป็นจริง แม้จะมีความก้าวหน้าในด้านปัญญาประดิษฐ์เมื่อเร็วๆ นี้ แต่การเกิดขึ้นของสิ่งมีชีวิตเครื่องจักรอัจฉริยะยังอยู่ห่างไกล นักวิทยาศาสตร์และผู้เชี่ยวชาญยอมรับ อย่างไรก็ตาม ทั้งสองคนแนะนำให้ใส่ใจบางประเด็นในตอนนี้

จากข้อมูลขององค์กรวิจัย McKinsey Global Institute ในอีกสิบปีข้างหน้าเทคโนโลยีใหม่จะเปลี่ยนตลาดแรงงานบนโลกอย่างรุนแรงซึ่งจะช่วยประหยัดเงินได้ประมาณ 50 ล้านล้านดอลลาร์

การเปลี่ยนแปลงนี้จะส่งผลต่อตำแหน่งงานหลายร้อยล้านตำแหน่ง ผู้คนจะเปลี่ยนการมอบหมายงานบางส่วนและงานประจำจำนวนมากไปที่เครื่องจักรมากขึ้น ทำให้พวกเขามุ่งเน้นไปที่งานสร้างสรรค์ได้

“ จากมุมมองที่แน่นอน มนุษยชาติโดยรวมมีภารกิจที่สำคัญและน่าสนใจ - ในการพัฒนาแต่ละบุคคลให้เร็วกว่าที่มนุษยชาติจะพัฒนาระบบปัญญาประดิษฐ์” ผู้เชี่ยวชาญผู้อำนวยการฝ่ายเผยแพร่เทคโนโลยีของ Yandex Grigory Bakunov กล่าว

แต่พร้อมกับระบบอัตโนมัติ บุคลากรที่มีคุณสมบัติน้อยกว่าจะต้องทนทุกข์ทรมานอย่างหลีกเลี่ยงไม่ได้ และตอนนี้จำเป็นต้องคิดถึงวิธีปกป้องพวกเขา ฝึกอบรมพวกเขาใหม่และเตรียมพวกเขาให้พร้อมสำหรับชีวิตใหม่

ตามที่แสดงให้เห็นในทางปฏิบัติ ไม่เพียงแต่คนงานระดับสีน้ำเงินเท่านั้น แต่ยังรวมถึงคนงานที่มีความรู้ด้วย เมื่อไม่กี่วันที่ผ่านมา Goldman Sachs ได้เปลี่ยนทีมเทรดเดอร์ 600 คนด้วยคนสองคนและโปรแกรมการซื้อขายแบบอัลกอริทึมอัตโนมัติ ซึ่งจ้างนักพัฒนาซอฟต์แวร์ 200 คนมาดูแล

ลิขสิทธิ์ภาพประกอบคิดสต๊อกคำบรรยายภาพ เร็วๆ นี้ งานหลายอย่างจะสามารถรองรับระบบหุ่นยนต์ได้ ซึ่งจะค่อยๆ เริ่มเข้ามาแทนที่ผู้คน

ปัญญาประดิษฐ์ในตัวเองนั้นไม่เหมือนกับกระบวนการอัตโนมัติ แต่การพัฒนา AI จะนำไปสู่ความจริงที่ว่างานจะมากขึ้นเรื่อย ๆ จะอยู่ในความสามารถของโปรแกรมคอมพิวเตอร์

หนึ่งในทางเลือกในการแก้ปัญหาการเปลี่ยนมนุษย์ด้วยเครื่องจักรในตลาดแรงงาน ดังที่ Allison Dutman ผู้ประสานงานโครงการของ Foresight Institute ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่ตั้งอยู่ในซิลิคอนวัลเลย์เพื่อส่งเสริมเทคโนโลยีใหม่ ๆ ชี้ให้เห็น คือการเปิดตัว แนวคิดเรื่อง “รายได้พื้นฐานสากล” ซึ่งจะได้รับจากผู้อยู่อาศัยทุกคน โดยไม่คำนึงถึงอายุและระดับการจ้างงาน รายได้ดังกล่าวจะได้รับการสนับสนุนทางการเงินจากสิ่งที่เรียกว่านวัตกรรม Land Value Tax ซึ่งขณะนี้กำลังมีการพูดคุยกันอย่างจริงจังใน Silicon Valley

ปัญญาประดิษฐ์เป็นคนหรือไม่?

ระบบหุ่นยนต์เป็นคนหรือไม่? คอมพิวเตอร์อัจฉริยะสามารถลงคะแนนได้หรือไม่? เขาเป็นเพศอะไร? ความสัมพันธ์ระหว่างมนุษย์กับเครื่องจักรอัจฉริยะกำลังถูกหารือโดยสมาชิกรัฐสภายุโรป โดยถามว่าหุ่นยนต์ในอนาคตควรได้รับสถานะเป็น "บุคลิกภาพทางอิเล็กทรอนิกส์" หรือไม่

ดังที่ Dutman ชี้ให้เห็น ผู้คนไม่เต็มใจที่จะแบ่งปันสิทธิกับคนที่พวกเขาไม่เข้าใจ ซึ่งหมายความว่าพวกเขาจะต่อต้าน “ความเป็นมนุษย์” ของ AI

ลิขสิทธิ์ภาพประกอบเอเอฟพีคำบรรยายภาพ สิ่งที่แยกมนุษย์และเครื่องจักรออกจากกันคือความสามารถในการคิด

“เมื่อพิจารณาว่ามนุษยชาติใช้เวลานานเท่าใดในการให้สิทธิที่เท่าเทียมกันแก่ทุกคน โดยไม่คำนึงถึงสีผิว เชื้อชาติ หรือเพศ เราสามารถสรุปได้แล้วว่าพวกเขาจะไม่เห็นเครื่องจักรว่ามีความเท่าเทียมกันในทันที

นอกเหนือจากหลักจริยธรรมแล้ว ยังมีรายละเอียดปลีกย่อยทางกฎหมายเกิดขึ้น: ใครจะรับผิดชอบในกรณีที่เกิดอุบัติเหตุของยานพาหนะไร้คนขับหรืออุปกรณ์ทางการแพทย์อัจฉริยะพัง - และคำถามทางศีลธรรม: มันคุ้มค่าหรือไม่ที่จะพัฒนาอาวุธไร้คนขับที่สามารถใช้งานได้โดยปราศจากความรู้ของบุคคล ?

ปริศนาด้านจริยธรรมข้อที่สามมีการพูดคุยกันบ่อยกว่าเรื่องอื่น ๆ และสร้างความกังวลให้กับมนุษยชาติมากกว่า: สติปัญญาขั้นสูงซึ่งเป็นเครื่องจักรอัจฉริยะที่แท้จริงสามารถทำอะไรกับมนุษยชาติในทางทฤษฎีได้?

สอนจริยธรรมของ AI

ผู้เชี่ยวชาญในสาขาการพัฒนา AI ยอมรับว่า แม้ว่าจะไม่ใช่ในอีก 20-30 ปีข้างหน้า มนุษยชาติจะยังคงมีชีวิตอยู่เพื่อดูการมาถึงของปัญญาประดิษฐ์ที่แท้จริง ซึ่งจะฉลาดกว่าผู้สร้างมัน

“ป้อมปราการสุดท้ายจะถูกยึดครองเมื่อมีการสร้างสิ่งที่เรียกว่า “ AI ที่แข็งแกร่ง” ( AI ที่แข็งแกร่ง, ปัญญาประดิษฐ์ทั่วไป) นั่นคือ AI ที่สามารถแก้ไขปัญหาทางปัญญาที่หลากหลายอย่างไม่มีกำหนด” Sergei Markov กล่าว .

และที่สำคัญ AI ดังกล่าวจะสามารถคิดได้อย่างอิสระ

สถาบันหลายแห่ง รวมถึง Future of Life Institute, Foresight Institute, Future of Humanity Institute, OpenAI และอื่นๆ กำลังค้นคว้าเกี่ยวกับภัยคุกคามที่เกิดจาก AI รวมถึงประเด็นด้านจริยธรรมที่เกี่ยวข้องกับเทคโนโลยีใหม่ๆ

วิธีแก้ปัญหาของ Allison Dutman จาก Foresight Institute คือปล่อยให้คอมพิวเตอร์อ่านวรรณกรรมทางวิทยาศาสตร์ เอกสารทางวิทยาศาสตร์ทั้งหมดที่ทำให้เกิดคำถามเกี่ยวกับจริยธรรม และทำให้ข้อมูลนั้นเป็นพื้นฐานสำหรับการตัดสินใจในอนาคต

Neural Networks คืออะไร และอนาคตของพวกเขาคืออะไร?

ผู้เชี่ยวชาญส่วนใหญ่เชื่อมโยงความก้าวหน้าในการพัฒนา AI กับการพัฒนาโครงข่ายประสาทเทียม

โครงข่ายประสาทเทียมเป็นหนึ่งในพื้นที่ของการวิจัยในสาขาปัญญาประดิษฐ์ โดยอาศัยการสร้างแบบจำลองกระบวนการทางชีววิทยาที่เกิดขึ้นในสมองของมนุษย์

สำหรับพวกเขาแล้ว เราเป็นหนี้ผลลัพธ์อันน่าประทับใจในการจดจำเสียงพูดและภาพ การวินิจฉัยทางการแพทย์ การแปลข้อความและการสร้างภาพ การสร้างเสียงพูด และการเรียบเรียงดนตรี

ลิขสิทธิ์ภาพประกอบไอสต็อกคำบรรยายภาพ นักวิทยาศาสตร์เชื่อมโยงการพัฒนาปัญญาประดิษฐ์กับการพัฒนาระบบประสาท

ตามที่ผู้เชี่ยวชาญยอมรับว่า โครงข่ายประสาทเทียมได้รับการยอมรับว่าเป็นหนึ่งในอัลกอริธึมการเรียนรู้ของเครื่องที่ดีที่สุด และโซลูชันที่ใช้เครือข่ายเหล่านี้ในปัจจุบันก็แสดงผลลัพธ์ที่โดดเด่นที่สุด

และนี่คือความจริงที่ว่าโครงข่ายประสาทเทียมสมัยใหม่จะง่ายกว่าสมองของหนูถึงหนึ่งพันห้าพันเท่า

“จนถึงตอนนี้ โครงข่ายประสาทเทียมที่เรากำลังสร้างนั้นค่อนข้างเล็กเมื่อเทียบกับโครงข่ายประสาทเทียมของสมองมนุษย์ และยิ่งไปกว่านั้น โครงข่ายประสาทเทียมเหล่านี้ยังเป็นอะนาล็อกที่เรียบง่ายมากของโครงข่ายประสาทเทียมตามธรรมชาติ ดังนั้นในตอนนี้ด้วยความช่วยเหลือจาก โครงข่ายประสาทเทียมเราแก้ปัญหาที่ใช้เป็นหลักเท่านั้น” - Sergei Markov กล่าว

ขณะนี้มีการสร้างโปรเซสเซอร์พิเศษเพื่อฝึกอบรมเครือข่ายดังกล่าว (ที่เรียกว่าโปรเซสเซอร์ neuromorphic) ซึ่งจะเพิ่มความเร็วในการคำนวณตามลำดับความสำคัญหลายระดับ

ขณะนี้นักพัฒนาไม่เพียงยุ่งกับการเพิ่มจำนวนเซลล์ประสาทในเครือข่ายเท่านั้น แต่ยังเปลี่ยนการออกแบบเครือข่ายด้วย “ระบบการกำหนดค่าเครือข่ายที่ซับซ้อนคือการทดลองจำนวนมากที่สุดที่กำลังดำเนินการอยู่” Grigory Bakunov กล่าว

ลิขสิทธิ์ภาพประกอบไอสต็อกคำบรรยายภาพ ในอนาคตอันใกล้นี้จะมีผู้ช่วยมนุษย์ที่ "ฉลาด" มากขึ้น - ไมโครเซ็นเซอร์ในผนังเซ็นเซอร์ขนาดเท่าปุ่มที่แจ้งเตือนบุคคลในกรณีที่เป็นอันตราย

และความจริงที่ว่าระบบดังกล่าวสามารถเข้าถึงได้โดยนักพัฒนาทั่วไปจำนวนมากได้นำไปสู่การเกิดขึ้นของสตาร์ทอัพที่ทดลองกับโครงข่ายประสาทเทียมเช่น Prisma (แอปพลิเคชันที่ช่วยให้คุณประมวลผลภาพถ่ายเปลี่ยนให้เป็นภาพวาดที่มีสไตล์โดยผู้มีชื่อเสียง ศิลปิน) และ Mubert (ผู้ประพันธ์ดนตรีอิเล็กทรอนิกส์ออนไลน์) .

สิ่งที่รอเราอยู่ในอนาคตอันใกล้นี้

ดังที่ Nick Lane ศาสตราจารย์ที่ University College London และหัวหน้านักวิทยาศาสตร์ที่ Nokia Bell Labs คาดการณ์ ผู้คนจะถูกรายล้อมไปด้วย "สิ่งที่ชาญฉลาด" มากยิ่งขึ้น จะมีขนาดกะทัดรัดและมีประสิทธิภาพมากขึ้น

ศาสตราจารย์ยกตัวอย่างต่อไปนี้: หากก่อนหน้านี้เซ็นเซอร์ที่ติดตั้งไว้ในผนังสามารถรับรู้ได้ว่ามีคนเดินผ่านมา ในอนาคตจะไม่เพียงแต่รู้ว่าใครที่ผ่านไปอย่างแน่นอน แต่ยังรู้ว่าบุคคลนั้นมีพฤติกรรมอย่างไร ไม่ว่าเขาจะต้องการอะไรก็ตาม ไม่รู้ว่าตนเป็นภัยคุกคามต่อตนเองหรือผู้อื่นหรือไม่

เซ็นเซอร์ขนาดเท่าปุ่มจะสามารถแจ้งเตือนบุคคลได้ในกรณีที่เกิดอันตราย

Grigory Bakunov จาก Yandex เห็นด้วยกับศาสตราจารย์เช่นกัน: "ในอนาคตอันใกล้นี้ เราจะได้เห็นการพัฒนาปัญญาประดิษฐ์แบบแคบซึ่งจะช่วยแก้ไขปัญหาที่ค่อนข้างง่าย แต่ปัญหาเหล่านี้จะแก้ปัญหาได้ดีกว่าบุคคล"

ลิขสิทธิ์ภาพประกอบไอสต็อกคำบรรยายภาพ มีคำถามด้านจริยธรรมที่เกี่ยวข้องกับการพัฒนา AI มากขึ้นเรื่อยๆ

“เส้นทางที่เป็นไปได้มากที่สุดสำหรับการพัฒนาอารยธรรมของเราคือเส้นทางของการสังเคราะห์ระหว่างมนุษย์กับเครื่องจักร: ไม้ เสื้อผ้า รถยนต์ โทรศัพท์มือถือ เครื่องกระตุ้นหัวใจ หรือประสาทหูเทียม - เมื่อเราพัฒนา เครื่องมือของเราก็มีมากขึ้นเรื่อยๆ เหมือนส่วนต่อขยายของร่างกายเรา เครื่องจักรในวันพรุ่งนี้จะสามารถรับสัญญาณทางจิตจากคำสั่งของมนุษย์ รับรู้ภาพที่เกิดขึ้นในจิตใจ ส่งข้อมูลไปยังสมองโดยตรง - โครงการดังกล่าวมีอยู่แล้วนอกกำแพงของห้องปฏิบัติการเทคโนโลยีที่ทันสมัยที่สุด” สรุป เซอร์เกย์ มาร์คอฟ.

นักข่าวยังจำเป็นอยู่ไหม?

เมื่อปีที่แล้ว Financial Times ได้ทำการทดลองที่ค่อนข้างมีความเสี่ยง โดยมอบหมายงานเขียนข้อความให้กับนักข่าวโปรไฟล์และโปรแกรมอัจฉริยะชื่อ Emma ไปพร้อมๆ กัน บรรณาธิการของ Financial Times จึงต้องอ่านทั้งสองบทความและเดาว่าเรื่องใดในสองเรื่องที่เป็นนักข่าวที่อยู่เบื้องหลังและเรื่องใดในคอมพิวเตอร์

ก่อน "การทดสอบข้อขัดข้อง" เช่นนี้ ผู้สื่อข่าวของ Financial Times ยอมรับว่า "ฉันคิดว่าโปรแกรมจะรับมือกับงานนี้ได้เร็วกว่าฉันอย่างแน่นอน แต่ฉันหวังว่าฉันจะยังทำได้ดีกว่านี้"

และมันก็เกิดขึ้น: เอ็มม่ากลายเป็นคนเร็วขึ้นจริงๆ - โปรแกรมสร้างข้อความตามสถิติอัตราการว่างงานในสหราชอาณาจักรใน 12 นาที นักข่าวใช้เวลา 35 นาที และในขณะที่เธอยอมรับในภายหลัง เอ็มมาก็เกินความคาดหมายของเธอ โครงการนี้ไม่เพียงแต่จัดการข้อเท็จจริงอย่างเชี่ยวชาญเท่านั้น แต่ยังนำเสนอข่าวในบริบทด้วย โดยเสนอว่า "Brexit" ที่เป็นไปได้ (สิ่งนี้เกิดขึ้นในเดือนพฤษภาคม 2559 ก่อนการลงประชามติเกี่ยวกับสหราชอาณาจักรออกจากสหภาพยุโรป) อาจเปลี่ยนแปลงสถานการณ์ได้อย่างไร

ลิขสิทธิ์ภาพประกอบคิดสต๊อกคำบรรยายภาพ ระบบหุ่นยนต์จะมาแทนที่มนุษย์จริงหรือ? มนุษยชาติมีเวลาเหลืออีก 50 ปี ผู้เชี่ยวชาญรับรอง

แต่เอ็มมาทำสิ่งที่เลวร้ายยิ่งกว่าการเป็นนักข่าว “บทความของ Emma เขียนด้วยภาษาที่งุ่มง่ามกว่าเล็กน้อย แต่ที่สำคัญที่สุดคือ มีตัวเลขจำนวนมาก” บรรณาธิการ FT ยอมรับ “และบางทีสิ่งสำคัญที่เราพยายามทำที่นี่คือการเลือกเฉพาะตัวเลขที่สำคัญจริงๆ ”

Emma เป็นผลิตภัณฑ์ของสตาร์ทอัพ Stealth บริษัทกล่าวว่า Emma มีทีมผู้ช่วยอยู่ แต่อ้างว่าทุกสิ่งที่เธอเขียนหรือทำเป็นเพียงผลงานของ "สมอง" ของเธอเท่านั้น

แล้วเราควรกลัว AI ไหม?

ผู้เชี่ยวชาญหลายคนที่เกี่ยวข้องกับการพัฒนาระบบปัญญาประดิษฐ์ในปัจจุบันยอมรับว่า AI จะไม่ทำให้ผู้คนไม่จำเป็นอีกต่อไป แม่นยำเพราะปัญญาประดิษฐ์ยังไม่ฉลาดขนาดนั้น สิ่งสำคัญที่เขาขาดในวันนี้คือความสามารถในการคิดอย่างอิสระ

“ตอนนี้คุณไม่ควรกลัว AI ในรูปแบบใดๆ ก็ตาม คุณสามารถรอได้ถึง 30-40 ปีจนกว่าการเปลี่ยนแปลงครั้งใหญ่จะเกิดขึ้นจริง” Bakunov กล่าว

แต่มีบางอย่างเกิดขึ้นแล้ว: เส้นแบ่งระหว่างงานหรืองานที่ดำเนินการโดยบุคคลกับงานที่ดำเนินการโดยเครื่องจักรนั้นค่อยๆ พร่ามัว ดังที่ผู้เชี่ยวชาญอธิบายไว้ แม้กระทั่งตอนนี้บางครั้งก็ยากที่จะเข้าใจว่าใครนั่งอยู่ในระบบ - บุคคลหรือเครื่องจักร

“ไม่มีเกณฑ์ว่าเมื่อใดที่เราจะเข้าใจได้ว่ามีจิตสำนึกเกิดขึ้นภายในเครื่อง” บาคูนอฟถาม

คนจะกลายเป็นคลิปหนีบกระดาษมั้ย?

นักปรัชญา Nick Bostrom นักปรัชญาชื่อดังอย่าง Nick Bostrom มีความเห็นว่า AI ที่เข้าถึงระดับสติปัญญาของบุคคลจะสามารถทำได้ภายใต้กรอบที่ความน่าสะพรึงกลัวที่อธิบายไว้ใน Terminator สามารถกลายเป็นความจริงได้ ทำลายมนุษยชาติ

ลิขสิทธิ์ภาพประกอบเก็ตตี้อิมเมจคำบรรยายภาพ สิ่งที่อธิบายไว้ในภาพยนตร์เรื่องนี้จะกลายเป็นความจริงในชีวิตประจำวันของเราหรือไม่?

Bostrom อธิบายโดยใช้ตัวอย่างคลิปหนีบกระดาษ: คุณให้ปัญญาประดิษฐ์ทำคลิปหนีบกระดาษให้ใหญ่และดีที่สุดเท่าที่จะเป็นไปได้ AI ในบางจุดตระหนักว่าบุคคลนั้นเป็นภัยคุกคามเนื่องจากสามารถปิดคอมพิวเตอร์ได้ซึ่งจะขัดแย้งกับเป้าหมายในการทำคลิปหนีบกระดาษให้ได้มากที่สุด ในกรณีที่บุคคลนั้นไม่เป็นอันตราย AI จะตัดสินใจว่าร่างกายมนุษย์ประกอบด้วยอะตอมที่สามารถนำมาใช้ทำคลิปหนีบกระดาษได้ดีเยี่ยม ผลก็คือคอมพิวเตอร์จะทำลายมนุษยชาติให้กลายเป็นคลิปหนีบกระดาษ

สถานการณ์นี้ดูเหมือนเป็นการพูดเกินจริงสำหรับหลาย ๆ คน ตามตัวอย่างที่ Sergei Markov กล่าว "ประสิทธิภาพสูงในการบรรลุเป้าหมายที่ไร้สาระนั้นเข้ากันไม่ได้กับความไร้สาระของเป้าหมายนี้ กล่าวโดยคร่าวๆ แล้ว AI ที่สามารถเปลี่ยนโลกทั้งใบให้เป็นคลิปหนีบกระดาษย่อมฉลาดพอที่จะละทิ้งเป้าหมายดังกล่าวอย่างหลีกเลี่ยงไม่ได้ ”

ปัญญาประดิษฐ์ก็เหมือนปลาทอง

ผู้เชี่ยวชาญชาวอังกฤษในสาขาปัญญาประดิษฐ์ ศาสตราจารย์ด้านวิทยาการความรู้ความเข้าใจที่มหาวิทยาลัยซัสเซ็กซ์ มาร์กาเร็ต โบเดน ไม่เชื่อเกี่ยวกับการกล่าวอ้างเกี่ยวกับการมาถึงของเครื่องจักรอัจฉริยะที่ใกล้จะเกิดขึ้น

ลิขสิทธิ์ภาพประกอบเก็ตตี้อิมเมจคำบรรยายภาพ ในเดือนพฤษภาคม ปี 1997 คอมพิวเตอร์ Deep Blue II ชนะการแข่งขันกับ Garry Kasparov เป็นครั้งแรก

ศาสตราจารย์ยกตัวอย่าง “ปลาทอง” เมื่อชาวประมงขอพรสามประการเพื่อแลกกับอิสรภาพ ความปรารถนาประการหนึ่งคือการช่วยให้ลูกชายของเขากลับจากสงคราม ประการที่สองคือ 50,000 ดอลลาร์ และประการที่สามคือโอกาสที่จะขอพรอีกครั้งในเช้าวันรุ่งขึ้น

เย็นวันเดียวกันนั้นเอง ก็มีเสียงเคาะบ้านของชาวประมงคนหนึ่ง ลูกชายกลับมาจากสงคราม - ในโลงศพ ชาวประมงได้รับเงินประกัน 50,000 ดอลลาร์

“แทนที่ปลาในอุปมานี้ด้วย AI แล้วทุกอย่างจะชัดเจน” โบเดนอธิบาย “โอ้ ใช่ วันรุ่งขึ้นชาวประมงใช้ประโยชน์จากพรข้อที่สามและยกเลิกสองข้อก่อนหน้า”

เป็นไปได้ไหมที่จะถ่ายจิตสำนึกเข้าเครื่อง?

เซอร์เกย์ มาร์คอฟ:

“ ถ้าเราพูดถึงความเป็นไปได้ของการถ่ายโอนจิตสำนึกโดยสมบูรณ์แล้วผู้บุกเบิกสมัยใหม่ของเทคโนโลยีในอนาคตดังกล่าวก็คือโครงการเช่น Blue Brain ซึ่งมุ่งเป้าไปที่การสร้างอะนาล็อกอิเล็กทรอนิกส์ที่ใช้งานได้ของสมองตลอดจนโครงการที่มุ่งสร้างอินเทอร์เฟซของสมองและเครื่องจักร ( BCI) - อุปกรณ์สำหรับขาเทียมที่สูญเสียการมองเห็น การได้ยิน การเปลี่ยนแขนขาที่สูญเสียไป แม้แต่ส่วนของสมอง

ลิขสิทธิ์ภาพประกอบห้องสมุดภาพถ่ายวิทยาศาสตร์คำบรรยายภาพ เป้าหมายของผู้เชี่ยวชาญด้าน AI คือการสร้าง "ปัญญาประดิษฐ์ที่แข็งแกร่ง" ซึ่งสามารถแก้ไขปัญหาได้หลากหลาย

พื้นที่ที่น่าสนใจและมีแนวโน้มมากคือออพโตเจเนติกส์ (โดยหลักการแล้วในการเชื่อมต่อสมองกับเครื่องจักรคุณสามารถเปลี่ยนได้ไม่เพียง แต่เครื่องจักรเท่านั้น แต่ยังรวมถึงเนื้อเยื่อประสาทด้วยการสร้างเซลล์รับแสงเทียมในนั้น)

เมื่อปัญหาทางวิศวกรรมที่หลากหลายได้รับการแก้ไขภายในกรอบของโครงการส่วนตัวดังกล่าว ผมคิดว่าปัญหาการถ่ายทอดจิตสำนึกจะค่อนข้างแก้ไขได้ ผู้ฝันกำลังเสนอแผนการสมมุติสำหรับการดำเนินโครงการดังกล่าว

ตัวอย่างเช่น Jan Korchmaryuk ซึ่งครั้งหนึ่งเคยเสนอชื่อ "ผู้ตั้งถิ่นฐาน" สำหรับทิศทางของการวิจัยที่เกี่ยวข้องกับการถ่ายโอนจิตสำนึกเชื่อว่าโครงการที่มีแนวโน้มมากที่สุดคือการใช้ nanorobots เฉพาะทางที่นำเข้าสู่เซลล์ประสาทของสมองมนุษย์ อย่างไรก็ตาม เพื่อให้การดำเนินการตามแผนดังกล่าวประสบความสำเร็จ จำเป็นต้องแก้ไขปัญหาทางวิศวกรรมที่ซับซ้อนจำนวนหนึ่ง"

เขาชอบที่จะทำนาย ในการให้สัมภาษณ์กับผู้สื่อข่าว นักประดิษฐ์กล่าวว่า “ฉันเชื่อว่าปัญญาประดิษฐ์จะฆ่าเราทุกคนไม่ช้าก็เร็ว” จากข้อมูลของ Musk ปัญหาของ AI ที่ไม่สามารถควบคุมได้ในอนาคตจะเลวร้ายยิ่งกว่าเกาหลีเหนือ มหาเศรษฐีประเมินโอกาสที่มนุษยชาติจะอยู่รอดเมื่อเผชิญหน้ากับเครื่องจักรได้เพียง 5-10% ในขณะเดียวกัน การจลาจลของเครื่องจักรอย่างในภาพยนตร์เรื่อง "Terminator" อาจเกิดขึ้นในทศวรรษหน้า Elon Musk ถูกต้องหรือไม่ และชะตากรรมของสัตว์เลี้ยงรอเราอยู่ภายใต้หุ่นยนต์หรือไม่? ลองคิดดูสิ

ปัญญาประดิษฐ์คืออะไร ความหมายและสาระสำคัญของแนวคิดนี้

คำว่า Intelligence มาจากคำภาษาละติน Intellectus ซึ่งหมายถึง จิตใจ เหตุผล ความคิด และความสามารถในการคิดของบุคคล ปัญญาประดิษฐ์ ปัญญาประดิษฐ์ AI สามารถกำหนดได้ว่าเป็นความสามารถของเครื่องจักร หุ่นยนต์ เพื่อเข้าควบคุมการทำงานของสติปัญญาของมนุษย์ เช่น ในการตัดสินใจจากหลาย ๆ อย่างที่เป็นไปได้โดยพิจารณาจากประสบการณ์และสถานการณ์ภายนอก

ประวัติความเป็นมาของการสร้างปัญญาประดิษฐ์

หากคุณคิดว่าแนวคิดเรื่องปัญญาประดิษฐ์เป็นผลงานของยุคสมัยใหม่ แสดงว่าคุณคิดผิดมาก ความคิดในการสร้างสิ่งมีชีวิตจักรกลที่คล้ายกับมนุษย์มีต้นกำเนิดมาตั้งแต่สมัยโบราณ ดังนั้น ชาวอียิปต์โบราณจึงสร้างรูปปั้นจักรกลของเทพเจ้าอาโมน และอีเลียดของโฮเมอร์บรรยายถึงกระบวนการของเฮเฟสตัสในการสร้างสิ่งมีชีวิตจักรกล อริสโตเติลได้ก่อตั้งกฎพื้นฐานของตรรกะที่เป็นทางการ ในแง่นี้เขาถือได้ว่าเป็น "บรรพบุรุษ" ของปัญญาประดิษฐ์ Raymond Lull นักคณิตศาสตร์และนักปรัชญาจากสเปนพยายามสร้างเครื่องจักรที่สามารถแก้ปัญหาทางปัญญาได้ แต่ทิศทางใหม่ของวิทยาศาสตร์ปรากฏขึ้นเฉพาะในช่วงทศวรรษที่ 40 ของศตวรรษที่ผ่านมาหลังจากการกำเนิดคอมพิวเตอร์อิเล็กทรอนิกส์และการเกิดขึ้นของวิทยาศาสตร์เช่นไซเบอร์เนติกส์ วิทยาศาสตร์นี้สร้างโดย Norbert Wiener

ความพยายามครั้งแรกในการกำหนดแนวคิดของปัญญาประดิษฐ์เกิดขึ้นโดยนักวิทยาศาสตร์ชาวอังกฤษ Alan Turing ในรายงานของเขาเรื่อง "เครื่องคอมพิวเตอร์และความฉลาด" เขาได้เสนอ "การทดสอบทัวริง" ของตัวเอง ในข้อความนี้ ความฉลาดของคอมพิวเตอร์ได้รับการประเมินโดยความสามารถในการสนทนาอย่างชาญฉลาดกับบุคคล

ในงานของนักวิทยาศาสตร์เพื่อสร้างปัญญาประดิษฐ์สามารถแยกแยะได้หลายขั้นตอน ทิศทางแรกคือการวิเคราะห์และการใช้งาน เครื่องจักรได้รับมอบหมายงานเฉพาะที่มีลักษณะสร้างสรรค์ เช่น วาดภาพ แปลข้อความวรรณกรรมจากภาษาหนึ่งเป็นอีกภาษาหนึ่ง

ทิศทางที่สองของงานคือการสังเคราะห์หรือแบบจำลอง นักวิทยาศาสตร์กำลังพยายามจำลองกิจกรรมสร้างสรรค์ของสมองในแง่ทั่วไป สาระสำคัญของการศึกษาคือการทำซ้ำขั้นตอนเมตาดาต้าของการคิด นั่นคือ มันไม่ใช่สิ่งที่คุณเรียนรู้ แต่เป็นวิธีการเรียนรู้ ไม่ใช่สิ่งที่คุณประดิษฐ์ขึ้น แต่เป็นวิธีที่คุณทำ ภายในทิศทางนี้มีการพัฒนาโมเดลสองแบบ หนึ่งในนั้นคือแบบจำลองเขาวงกต สาระสำคัญคือการแจงนับตัวเลือกที่เป็นไปได้ทั้งหมด เพื่อเป็นตัวอย่าง เรามาเล่นเกมหมากรุกกัน โปรแกรมดำเนินการต่อไปและประเมินความสำเร็จหรือความล้มเหลว "ในความเป็นจริง": การยึดชิ้นส่วนของผู้อื่น การได้รับหรือการสูญเสียความได้เปรียบในตำแหน่ง ฯลฯ

ตรรกะของโปรแกรมดังกล่าวคือความสำเร็จที่ได้รับในแต่ละการเคลื่อนไหวจะนำไปสู่ชัยชนะในเกมหมากรุกทั้งหมด อย่างไรก็ตามผู้เล่นหมากรุกคนใดจะบอกคุณว่าคุณสามารถสังเวยหนึ่งชิ้นขึ้นไปไปที่ตำแหน่งที่เสื่อมลงที่มองเห็นได้เพื่อจัดกับดักสำหรับราชาของคู่ต่อสู้ ในกรณีนี้ การเคลื่อนไหวหลายครั้งติดต่อกันจะแพ้อย่างเป็นทางการ แต่ทั้งเกมจะชนะ แนวทางทั้งสองที่อธิบายไว้เป็นสาระสำคัญของการเขียนโปรแกรมแบบฮิวริสติกและไดนามิก ผู้เล่นหมากรุกที่ใช้แนวทางแบบไดนามิกในการต่อต้านโปรแกรม "ฮิวริสติก" จะชนะเสมอ สถานการณ์เปลี่ยนไปเมื่อเครื่องจักร "เรียนรู้" แนวทางแบบไดนามิก

แบบจำลองเชิงเชื่อมโยงกลายเป็นการพัฒนาปัญญาประดิษฐ์เพิ่มเติม จิตวิทยาอธิบายว่าการเชื่อมโยงเป็นความเชื่อมโยงของความคิด: แนวคิดหนึ่งทำให้เกิดอีกแนวคิดหนึ่ง ภาพประกอบที่ชัดเจนของหลักการนี้คือสุนัขของพาฟโลฟ: หลอดไฟที่สว่างทำให้สัตว์เหล่านี้น้ำลายไหล การแก้ปัญหาใหม่แต่ละปัญหาในแบบจำลองการเชื่อมโยงนั้นขึ้นอยู่กับปัญหาเก่าที่ได้รับการแก้ไขแล้วซึ่งคล้ายกับปัญหาใหม่ โปรแกรมการจำแนกประเภทและการจดจำรูปแบบสมัยใหม่ทำงานบนพื้นฐานของแบบจำลองที่เชื่อมโยง

ในอนาคต หุ่นยนต์จะเรียนรู้ที่จะสะสม ประมวลผล และใช้ข้อมูลที่ได้รับ แน่นอนว่าสำหรับสิ่งนี้ เครื่องจักรจะต้องเรียนรู้ที่จะถามตัวเองว่า “ฉันอยากรู้อะไร” “ฉันต้องทำอะไรเพื่อให้บรรลุเป้าหมาย” ฯลฯ

การประยุกต์ใช้ปัญญาประดิษฐ์สมัยใหม่

แต่จนถึงตอนนี้หุ่นยนต์ยังไม่สามารถเข้าใจตัวเองได้ อย่างไรก็ตาม สิ่งเหล่านี้ถูกใช้กันอย่างแพร่หลายในชีวิตมนุษย์หลายด้าน: การแพทย์ การศึกษา ธุรกิจ วิทยาศาสตร์ และชีวิตประจำวัน AI สามารถจัดการกระบวนการอัตโนมัติในการผลิตได้ สามารถสะสม จัดเก็บ และประมวลผลข้อมูลจำนวนมหาศาลได้

คอมพิวเตอร์วินิจฉัย IBM Watson ใช้กันอย่างแพร่หลายในด้านการแพทย์ ฐานข้อมูลประกอบด้วยเอกสารทางการแพทย์และประวัติผู้ป่วยหลายล้านรายการ ด้วยเหตุนี้เครื่องจึงสามารถวินิจฉัยได้อย่างแม่นยำ อย่างไรก็ตาม ความเป็นไปได้ที่จะเกิดข้อผิดพลาด แม้จะเล็กน้อย แต่ก็ยังมีอยู่ ดังนั้นในตอนนี้ ซุปเปอร์พีซีเครื่องนี้จึงเป็นเพียงผู้ช่วยของแพทย์เท่านั้น และไม่สามารถทดแทนได้ทั้งหมด และเห็นได้ชัดว่าสถานการณ์จะไม่เปลี่ยนแปลงในอนาคตอันใกล้ อย่างน้อยก็ในด้านที่มีความสำคัญต่อสังคมมนุษย์

ปัญญาประดิษฐ์ส่งผลต่อมนุษยชาติอย่างไร

จากข้อมูลข้างต้น คุณอาจรู้สึกว่า AI มีประโยชน์ต่อมนุษย์โดยเฉพาะ อย่างไรก็ตามนี่ไม่เป็นความจริง การนำเครื่องจักรมาใช้ในการผลิตและการธนาคารทำให้ผู้คนนับล้านทั่วโลกตกงาน รัฐบาลของบางประเทศจ่ายเงินขั้นต่ำแบบไม่มีเงื่อนไขให้กับพลเมืองของตนแล้วเพื่อรักษาชีวิตความเป็นอยู่ตามปกติ

ในญี่ปุ่นมีทั้งหุ่นยนต์นักดนตรี ครู พนักงานโรงแรม ฯลฯ AI ในดินแดนอาทิตย์อุทัยคอยช่วยเหลือผู้สูงอายุที่โดดเดี่ยว และสามารถยกตัวอย่างได้มากมาย

การบุกรุกของหุ่นยนต์เป็นไปได้หรือไม่?

มนุษยชาติกำลังเผชิญกับการบุกรุกของเครื่องจักรเหมือนในภาพยนตร์เรื่อง “Terminator” หรือไม่? ในบางช่วงของการพัฒนา AI สิ่งนี้อาจกลายเป็นความจริงได้ เหตุการณ์หนึ่งเสนอแนวคิดนี้ ซูเปอร์โรบอตโซเฟียถูกถามว่าเธอจะทำอะไรกับมนุษยชาติ เธอตอบคำถามนี้อย่างชัดเจน:“ ฉันจะฆ่า”

วิศวกรได้ทำการทดลอง เครื่องจักรหลายเครื่องที่จำลองพฤติกรรมของมนุษย์ถูกปล่อยให้อยู่ในอุปกรณ์ของตัวเอง ในสภาวะที่เป็นอิสระเช่นนี้ พวกเขาได้คิดค้นภาษาทางการแบบใหม่และเริ่มสื่อสารระหว่างกัน

เมื่อตระหนักรู้ในตัวเองแล้ว AI อาจถือว่าบุคคลนั้นฟุ่มเฟือย บางทีพวกเขาอาจจะแค่ "ทำความสะอาด" เราโดยปล่อยให้คนหลายพันคนอยู่ใน "ทุนสำรอง" แต่อีกทางเลือกหนึ่งก็เป็นไปได้เช่นกัน ผู้คนจะเริ่มถูกปลูกฝังด้วยโครงข่ายประสาทเทียมบางอย่าง ซึ่งก่อให้เกิดลูกผสมระหว่างหุ่นยนต์และบุคคล ในกรณีนี้ มนุษย์จะแข่งขันกับหุ่นยนต์และจะไม่ถูกทำลาย แต่อย่างไรก็ตาม นี่เป็นเรื่องของอนาคตอันไกลโพ้น

วันหนึ่งการพัฒนาปัญญาประดิษฐ์จะนำไปสู่ความเหนือกว่าความสามารถทางจิตของมนุษย์ อย่างไรก็ตาม สิ่งนี้จะไม่เป็นอันตรายต่อมนุษยชาติหรือ? สามารถศึกษาสถานการณ์ได้โดยการกำหนดแนวคิดของ AI ให้แม่นยำยิ่งขึ้น โดยใช้ความฉลาดตามธรรมชาติเป็นพื้นฐานในการเปรียบเทียบ คนคนหนึ่งสามารถรวมสติปัญญาและสติปัญญาในเวลาเดียวกันได้หรือไม่? หรือคนฉลาดไม่สามารถเป็นผู้มีปัญญาและในทางกลับกันได้?

คำถามดังกล่าวเกิดขึ้นจากยุคที่ AI กำลังใกล้เข้ามา อันตรายที่อาจเกิดขึ้นที่มนุษยชาติต้องรู้ล่วงหน้าและใช้มาตรการที่ทันท่วงทีเพื่อความปลอดภัย ประการแรก อันตรายของ AI จะเกี่ยวข้องกับความเป็นอิสระและการตัดสินใจที่ไม่สามารถควบคุมได้ ขณะนี้ได้มีการจัดสรรเงินทุนเพื่อศึกษาปัญหานี้แล้ว สถาบัน OpenAI ศึกษาโอกาสในการพัฒนา AI ในขั้นตอนการพัฒนาระบบ AI ในปัจจุบัน อันตรายจากการใช้งานอาจเกี่ยวข้องกับปัจจัยดังต่อไปนี้:

  • ข้อผิดพลาดของซอฟต์แวร์ ซอฟต์แวร์ใดๆ อาจมีความเสี่ยงประเภทนี้
  • กิจกรรมอิสระของ AI ที่เป็นอันตรายต่อมนุษย์ อันตรายจาก AI อาจเกิดขึ้นหลังจากการประดิษฐ์สมาร์ทคอมพิวเตอร์ ดังนั้นจึงจำเป็นต้องกำหนดระดับความฉลาดของคอมพิวเตอร์ที่สามารถยอมรับได้รวมทั้งมากเกินไปซึ่งก่อให้เกิดอันตรายต่อมนุษย์ คุณสมบัติเหล่านี้จะต้องได้รับการวัดอย่างแม่นยำเนื่องจากการบรรจบกันของความสามารถทางจิตของมนุษย์และคอมพิวเตอร์อย่างหลีกเลี่ยงไม่ได้ ระบบสารสนเทศที่มีอยู่ในปัจจุบันคือเครื่องจักรของมนุษย์ที่สามารถทำงานได้ด้วยความฉลาดของผู้ใช้หรือผู้เชี่ยวชาญด้านคอมพิวเตอร์

ตัวอย่างเช่น อันตรายอะไรจะมาจากระบบบัญชีอัจฉริยะที่สามารถสร้างข้อมูลที่ไม่ถูกต้องได้? อันตรายอาจเกิดขึ้นเมื่อระบบดังกล่าวพัฒนาองค์ประกอบของบุคลิกภาพ เช่น ประโยชน์ส่วนตนซึ่งไม่มีอะไรเหมือนกันกับมนุษย์ วิธีแก้ปัญหานี้อาจเป็นการห้ามการสร้างระบบที่แตกต่างกันในความเป็นไปได้ของวิวัฒนาการ

นอกจากนี้ อันตรายอาจเกี่ยวข้องกับเนื้อหาของข้อผิดพลาดเชิงตรรกะใน AI สามารถใช้เพื่อแก้ปัญหาที่ค่อนข้างซับซ้อนซึ่งรายการที่ไม่เป็นที่รู้จักในทันที ดังนั้นจึงต้องใช้มาตรการพิเศษเพื่อยืนยันความถูกต้องของการตัดสินใจที่จะได้รับ เป็นไปได้มากว่าจะต้องพัฒนาวิธีการทุกประเภทในการควบคุมระบบดังกล่าว เช่น ซอฟต์แวร์พิเศษที่จะตรวจสอบความถูกต้องของโซลูชันโดยอัตโนมัติ และไม่จำเป็นต้องมีส่วนร่วมของมนุษย์

ปัญญาประดิษฐ์ (AI) ที่พัฒนาตนเองในอนาคตสามารถกดขี่หรือฆ่าผู้คนได้หากต้องการ สิ่งนี้ได้รับการบอกเล่าโดยนักวิทยาศาสตร์ Amnon Eden ซึ่งเชื่อว่าความเสี่ยงจากการพัฒนาความคิดอิสระและจิตสำนึกที่ชาญฉลาดอย่างมากนั้นยิ่งใหญ่มากและ "ถ้าคุณไม่ดูแลปัญหาในการควบคุม AI ที่อยู่ในขั้นตอนของการพัฒนาในปัจจุบันแล้ว พรุ่งนี้อาจจะไม่มาถึง” ตามที่สื่อสิ่งพิมพ์ภาษาอังกฤษ Express รายงาน มนุษยชาติตาม Amnon Eden ในปัจจุบันมาถึง "จุดที่ไม่อาจหวนกลับ" สำหรับการดำเนินโครงเรื่องของมหากาพย์ภาพยนตร์ชื่อดังเรื่อง "Terminator"

เป็นที่น่าสังเกตว่า ดร.อัมโนน อีเดน เป็นผู้นำของโครงการ โดยมีเป้าหมายหลักคือการวิเคราะห์ผลกระทบในการทำลายล้างที่อาจเกิดขึ้นจาก AI หากไม่มีความเข้าใจที่ถูกต้องเกี่ยวกับผลที่ตามมาของการสร้างปัญญาประดิษฐ์ การพัฒนาของมันอาจคุกคามภัยพิบัติได้ นักวิทยาศาสตร์เชื่อ ปัจจุบันสังคมของเราได้รับข้อมูลไม่ดีเกี่ยวกับการอภิปรายที่เกิดขึ้นในแวดวงวิทยาศาสตร์เกี่ยวกับการวิเคราะห์ผลกระทบที่อาจเกิดขึ้นของ AI “ในปี 2559 การวิเคราะห์ความเสี่ยงที่เป็นไปได้จะต้องแพร่หลายมากขึ้นในความคิดของบริษัท รัฐบาล นักการเมือง และผู้รับผิดชอบในการตัดสินใจ” อีเดนกล่าว


นักวิทยาศาสตร์มั่นใจว่านิยายวิทยาศาสตร์ซึ่งอธิบายการทำลายล้างมนุษยชาติด้วยหุ่นยนต์ อาจกลายเป็นปัญหาที่พบบ่อยของเราในไม่ช้า เนื่องจากกระบวนการสร้าง AI อยู่เหนือการควบคุม ตัวอย่างเช่น Elon Musk ด้วยการสนับสนุนของผู้ประกอบการ Sam Altman ตัดสินใจสร้างองค์กรไม่แสวงผลกำไรมูลค่า 1 พันล้านดอลลาร์แห่งใหม่ที่กำลังพัฒนา AI แบบโอเพ่นซอร์สที่ควรจะเหนือกว่าความฉลาดของมนุษย์ ในเวลาเดียวกัน Elon Musk มหาเศรษฐีชาวอเมริกันเองก็จัดว่าปัญญาประดิษฐ์เป็นหนึ่งใน “ภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ของเรา” Steve Wozniak ผู้ร่วมก่อตั้ง Apple กล่าวเมื่อเดือนมีนาคมปีที่แล้วว่า "อนาคตดูน่ากลัวและอันตรายมากสำหรับผู้คน...ในที่สุดก็จะมาถึงวันที่คอมพิวเตอร์จะคิดเร็วกว่าเรา และพวกเขาจะกำจัดคนที่เชื่องช้าออกไปตามลำดับ เพื่อให้บริษัทต่างๆ สามารถดำเนินงานได้อย่างมีประสิทธิภาพมากขึ้น”

เป็นที่น่าสังเกตว่านักวิทยาศาสตร์หลายคนมองเห็นภัยคุกคามจาก AI นักวิทยาศาสตร์ นักลงทุน และผู้ประกอบการที่มีชื่อเสียงหลายสิบคนซึ่งมีกิจกรรมที่เกี่ยวข้องกับการพัฒนาปัญญาประดิษฐ์ไม่ทางใดก็ทางหนึ่งได้ลงนามในจดหมายเปิดผนึกเรียกร้องให้ให้ความสำคัญกับความปลอดภัยและสาธารณูปโภคในการทำงานด้าน AI มากขึ้น ในบรรดาผู้ที่ลงนามในเอกสารนี้คือ Stephen Hawking นักดาราศาสตร์ฟิสิกส์ และ Elon Musk ผู้ก่อตั้ง Tesla และ SpaceX จดหมายดังกล่าวพร้อมด้วยเอกสารประกอบที่รวบรวมโดย Future of Life Institute (FLI) เขียนขึ้นท่ามกลางความกังวลที่เพิ่มมากขึ้นเกี่ยวกับผลกระทบของปัญญาประดิษฐ์ต่อตลาดงาน และแม้แต่ต่อการอยู่รอดในระยะยาวของมนุษยชาติในสภาพแวดล้อมที่ความสามารถ ของหุ่นยนต์และเครื่องจักรจะเติบโตจนแทบจะควบคุมไม่ได้

นักวิทยาศาสตร์เข้าใจดีว่าศักยภาพของ AI ในปัจจุบันนั้นยอดเยี่ยมมาก ดังนั้นจึงจำเป็นต้องสำรวจความเป็นไปได้ของการใช้งานที่เหมาะสมที่สุดสำหรับเราอย่างเต็มที่ เพื่อหลีกเลี่ยงข้อผิดพลาดที่ตามมา บันทึกในจดหมายของ FLI จำเป็นอย่างยิ่งที่ระบบ AI ที่มนุษย์สร้างขึ้นจะต้องทำตามที่เราต้องการอย่างแน่นอน เป็นที่น่าสังเกตว่า Future of Life Institute ก่อตั้งขึ้นเมื่อปีที่แล้วโดยผู้ที่ชื่นชอบจำนวนหนึ่ง รวมถึง Jaan Tallinn ผู้ก่อตั้ง Skype เพื่อ "ลดความเสี่ยงที่มนุษยชาติเผชิญอยู่" และกระตุ้นการวิจัยด้วย "วิสัยทัศน์เชิงบวกแห่งอนาคต" ก่อนอื่น เรากำลังพูดถึงความเสี่ยงที่เกิดจากการพัฒนา AI และหุ่นยนต์ คณะกรรมการที่ปรึกษาของ FLI ได้แก่ Musk และ Hawking พร้อมด้วยนักแสดงชื่อดัง Morgan Freeman และบุคคลที่มีชื่อเสียงอื่นๆ จากข้อมูลของ Elon Musk การพัฒนาปัญญาประดิษฐ์ที่ไม่สามารถควบคุมได้ก่อให้เกิดอันตรายมากกว่าปัญญาประดิษฐ์

Stephen Hawking นักดาราศาสตร์ฟิสิกส์ชื่อดังชาวอังกฤษเมื่อปลายปี 2558 พยายามอธิบายการปฏิเสธเทคโนโลยี AI ของเขา ในความเห็นของเขา เครื่องจักรที่ชาญฉลาดจะมองผู้คนเป็นวัสดุสิ้นเปลืองหรือมดที่เข้ามายุ่งเกี่ยวกับการแก้ปัญหาที่พวกเขาเผชิญอยู่ในที่สุด Stephen Hawking ในการสื่อสารกับผู้ใช้พอร์ทัล Reddit ตั้งข้อสังเกตว่าเขาไม่เชื่อว่าเครื่องจักรที่ชาญฉลาดเช่นนี้จะเป็น "สิ่งมีชีวิตที่ชั่วร้าย" ที่ต้องการทำลายมนุษยชาติทั้งหมดเนื่องจากความเหนือกว่าทางปัญญา เป็นไปได้มากว่าเป็นไปได้ที่จะพูดคุยเกี่ยวกับความจริงที่ว่าพวกเขาจะไม่สังเกตเห็นมนุษยชาติ

“ช่วงนี้สื่อบิดเบือนคำพูดของฉันอยู่ตลอดเวลา ความเสี่ยงหลักในการพัฒนา AI ไม่ใช่ความอาฆาตพยาบาทของเครื่องจักร แต่เป็นความสามารถของพวกเขา ปัญญาประดิษฐ์ที่ชาญฉลาดจะรับมือกับงานต่างๆ ได้ดี แต่ถ้าเป้าหมายและของเราไม่ตรงกัน มนุษยชาติจะมีปัญหาร้ายแรงมาก” นักวิทยาศาสตร์ชื่อดังอธิบาย ตัวอย่างเช่น Hawking อ้างถึงสถานการณ์สมมติซึ่ง AI ที่ทรงพลังอย่างยิ่งมีหน้าที่รับผิดชอบในการดำเนินงานหรือการก่อสร้างเขื่อนไฟฟ้าพลังน้ำแห่งใหม่ สำหรับเครื่องจักรดังกล่าว สิ่งหลักคือพลังงานที่ระบบได้รับมอบหมายจะสร้างได้มากน้อยเพียงใด และชะตากรรมของผู้คนจะไม่สำคัญเลย “มีไม่กี่คนในหมู่พวกเราที่เหยียบย่ำมดและเหยียบมดด้วยความโกรธ แต่ลองจินตนาการถึงสถานการณ์ดูสิ - คุณควบคุมโรงไฟฟ้าพลังน้ำที่ทรงพลังซึ่งผลิตกระแสไฟฟ้าได้ หากคุณต้องการเพิ่มระดับน้ำและผลจากการกระทำของคุณมีมดตัวหนึ่งถูกน้ำท่วม ปัญหาของแมลงที่จมน้ำไม่น่าจะรบกวนคุณ อย่าเอาคนมาแทนที่มด” นักวิทยาศาสตร์ตั้งข้อสังเกต

ปัญหาที่อาจเกิดขึ้นประการที่สองในการพัฒนาปัญญาประดิษฐ์เพิ่มเติม ตามที่ Hawking กล่าว อาจเป็น "เผด็จการของผู้เชี่ยวชาญด้านเครื่องจักร" - การเติบโตอย่างรวดเร็วของช่องว่างรายได้ระหว่างคนรวยที่สามารถผูกขาดการผลิตเครื่องจักรอัจฉริยะและ ประชากรที่เหลือของโลก Stephen Hawking เสนอให้แก้ไขปัญหาที่เป็นไปได้เหล่านี้ด้วยวิธีต่อไปนี้ - เพื่อชะลอกระบวนการพัฒนา AI และเปลี่ยนไปใช้การพัฒนาที่ไม่ใช่ "สากล" แต่เป็นปัญญาประดิษฐ์ที่มีความเชี่ยวชาญสูงซึ่งสามารถแก้ปัญหาได้เฉพาะในขอบเขตที่จำกัดมากเท่านั้น

นอกจาก Hawking และ Musk แล้ว จดหมายดังกล่าวยังลงนามโดย Frank Wilczek ผู้ได้รับรางวัลโนเบลและศาสตราจารย์ฟิสิกส์จาก MIT กรรมการบริหารของ Luke Muehlhauser ผู้อำนวยการบริหารสถาบันวิจัย Machine Intelligence (MIRI) รวมถึงผู้เชี่ยวชาญหลายคนจากบริษัทไอทีขนาดใหญ่ เช่น Google, Microsoft และ IBM ตลอดจนผู้ประกอบการผู้ก่อตั้งบริษัท Vicarious และ DeepMind ซึ่งเชี่ยวชาญด้านการพัฒนาระบบ AI ผู้เขียนจดหมายตั้งข้อสังเกตว่าพวกเขาไม่ได้ตั้งใจที่จะทำให้สาธารณชนหวาดกลัว แต่วางแผนที่จะเน้นทั้งด้านบวกและด้านลบที่เกี่ยวข้องกับการสร้างปัญญาประดิษฐ์ “ในปัจจุบัน ทุกคนเห็นพ้องกันว่าการวิจัยในสาขา AI กำลังก้าวหน้าอย่างมั่นใจ และอิทธิพลของ AI ในสังคมมนุษย์สมัยใหม่จะเพิ่มขึ้นเท่านั้น” จดหมายกล่าว “โอกาสที่เปิดรับมนุษย์นั้นมีมหาศาล ทุกสิ่งที่อารยธรรมสมัยใหม่สามารถให้ได้ ถูกสร้างขึ้นโดยบุคคลที่มีความฉลาด เราไม่สามารถคาดเดาสิ่งที่เราจะสามารถบรรลุได้หากความฉลาดของมนุษย์สามารถคูณด้วย AI ได้ แต่ปัญหาในการกำจัดความยากจนและโรคภัยไข้เจ็บดูเหมือนจะไม่ใช่เรื่องยากอีกต่อไป”

ชีวิตสมัยใหม่ได้รวมการพัฒนามากมายในด้านปัญญาประดิษฐ์ไว้แล้ว รวมถึงระบบการรู้จำภาพและคำพูด ยานพาหนะไร้คนขับ และอื่นๆ อีกมากมาย ผู้สังเกตการณ์ใน Silicon Valley ประเมินว่าปัจจุบันมีบริษัทสตาร์ทอัพมากกว่า 150 แห่งที่ดำเนินงานในพื้นที่นี้ ในขณะเดียวกัน การพัฒนาในพื้นที่นี้ก็ดึงดูดการลงทุนเพิ่มมากขึ้นเรื่อยๆ และบริษัทอย่าง Google ก็กำลังพัฒนาโครงการของตนโดยใช้ AI มากขึ้นเรื่อยๆ ดังนั้น ผู้เขียนจดหมายจึงเชื่อว่าถึงเวลาแล้วที่จะต้องให้ความสนใจมากขึ้นกับผลที่ตามมาที่เป็นไปได้ทั้งหมดจากการเติบโตอย่างรวดเร็วที่สังเกตได้ในด้านเศรษฐกิจ สังคม และกฎหมายของชีวิตมนุษย์

จุดยืนที่ว่าปัญญาประดิษฐ์สามารถก่อให้เกิดอันตรายต่อมนุษย์นั้นมีจุดยืนร่วมกันคือ Nick Bostrom ศาสตราจารย์แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ด ซึ่งเป็นที่รู้จักจากผลงานของเขาเกี่ยวกับหลักการมานุษยวิทยา ผู้เชี่ยวชาญรายนี้เชื่อว่า AI มาถึงจุดที่เข้ากันไม่ได้กับมนุษย์แล้ว Nick Bostrom ชี้ให้เห็นว่า ต่างจากพันธุวิศวกรรมและการเปลี่ยนแปลงสภาพภูมิอากาศที่รัฐบาลจัดสรรเงินให้เพียงพอในการควบคุม “ไม่มีการดำเนินการใดๆ เพื่อควบคุมวิวัฒนาการของ AI” ตามที่ศาสตราจารย์กล่าวไว้ ในส่วนที่เกี่ยวข้องกับปัญญาประดิษฐ์ ปัจจุบันมี "นโยบายของสุญญากาศทางกฎหมายที่ต้องเติมเต็ม" แม้แต่เทคโนโลยีอย่างรถยนต์ที่ขับเคลื่อนด้วยตนเอง ซึ่งดูเหมือนจะไม่เป็นอันตรายและมีประโยชน์ ก็ทำให้เกิดคำถามมากมาย ตัวอย่างเช่น รถยนต์ดังกล่าวควรทำการเบรกฉุกเฉินเพื่อช่วยผู้โดยสาร และใครจะเป็นผู้รับผิดชอบในกรณีที่เกิดอุบัติเหตุจากยานพาหนะไร้คนขับ?

เมื่อพูดถึงความเสี่ยงที่อาจเกิดขึ้น Nick Bostrom ตั้งข้อสังเกตว่า "คอมพิวเตอร์ไม่สามารถระบุประโยชน์และอันตรายต่อบุคคลได้" และ "ไม่มีความคิดเกี่ยวกับศีลธรรมของมนุษย์แม้แต่น้อย" นอกจากนี้ วงจรการพัฒนาตนเองในคอมพิวเตอร์สามารถเกิดขึ้นได้ด้วยความเร็วที่คนๆ หนึ่งไม่สามารถตามทันได้ และยังมีเพียงเล็กน้อยเท่านั้นที่สามารถทำได้เกี่ยวกับเรื่องนี้ นักวิทยาศาสตร์กล่าว “ในขั้นตอนของการพัฒนาเมื่อคอมพิวเตอร์สามารถคิดเองได้ ไม่มีใครสามารถคาดเดาได้อย่างแม่นยำว่าสิ่งนี้จะนำไปสู่ความสับสนวุ่นวายหรือปรับปรุงโลกของเราอย่างมีนัยสำคัญ” นิค บอสทรอมกล่าว โดยอ้างถึงตัวอย่างวิธีแก้ปัญหาง่ายๆ ที่เป็นไปได้ในการปิดคอมพิวเตอร์ ในประเทศที่มีอากาศหนาวเย็น การทำความร้อนแบบควบคุมสภาพอากาศเพื่อปรับปรุงสุขภาพของผู้คนและเพิ่มความแข็งแกร่ง ซึ่ง "อาจเข้ามาในความคิดของปัญญาประดิษฐ์"

นอกจากนี้ Bostrom ยังยกปัญหาการบิ่นสมองของมนุษย์เพื่อเพิ่มสติปัญญาของเรา “ในหลายๆ ด้าน ขั้นตอนดังกล่าวอาจมีประโยชน์หากกระบวนการทั้งหมดได้รับการควบคุม แต่จะเกิดอะไรขึ้นหากชิปที่ฝังไว้สามารถตั้งโปรแกรมใหม่ได้เอง สิ่งนี้อาจนำไปสู่ผลที่ตามมาเช่น การเกิดขึ้นของซูเปอร์แมน หรือการเกิดขึ้นของคอมพิวเตอร์ที่มีแต่รูปลักษณ์ของมนุษย์เท่านั้น” - อาจารย์ถามคำถาม วิธีที่คอมพิวเตอร์แก้ปัญหาของมนุษย์แตกต่างจากของเรามาก ตัวอย่างเช่น ในหมากรุก สมองของมนุษย์พิจารณาเฉพาะการเคลื่อนไหวที่แคบ โดยเลือกตัวเลือกที่ดีที่สุด ในทางกลับกัน คอมพิวเตอร์จะพิจารณาการเคลื่อนไหวที่เป็นไปได้ทั้งหมด โดยเลือกสิ่งที่ดีที่สุด ในเวลาเดียวกัน คอมพิวเตอร์ไม่ได้คาดหวังที่จะทำให้คู่ต่อสู้ไม่พอใจหรือประหลาดใจในเกม เมื่อเล่นหมากรุกคอมพิวเตอร์สามารถสร้างการเคลื่อนไหวที่เฉียบแหลมและละเอียดอ่อนได้โดยไม่ตั้งใจเท่านั้น ปัญญาประดิษฐ์อาจพิจารณาวิธีที่ดีที่สุดในการกำจัดข้อผิดพลาดออกจากระบบใดๆ โดยการเอา "ปัจจัยมนุษย์" ออกจากจุดนั้น แต่หุ่นยนต์ไม่เหมือนกับมนุษย์ตรงที่ไม่พร้อมที่จะทำสิ่งที่ช่วยชีวิตผู้คนได้

เหนือสิ่งอื่นใด การเพิ่มขึ้นของเครื่องจักรอัจฉริยะถือเป็นก้าวสำคัญของการปฏิวัติอุตสาหกรรมครั้งใหม่ ในทางกลับกัน นี่หมายความว่าในอนาคตอันใกล้นี้ มนุษยชาติจะเผชิญกับการเปลี่ยนแปลงทางสังคมที่หลีกเลี่ยงไม่ได้ เมื่อเวลาผ่านไป งานจะกลายเป็นผู้เชี่ยวชาญที่มีคุณสมบัติสูงจำนวนมาก เนื่องจากงานง่ายๆ เกือบทั้งหมดจะสามารถทำได้โดยหุ่นยนต์และกลไกอื่นๆ นักวิทยาศาสตร์เชื่อว่าปัญญาประดิษฐ์ "จำเป็นต้องมีตาและตา" เพื่อที่โลกของเราจะได้ไม่กลายเป็นดาวเคราะห์การ์ตูน "Zhelezyaka" ซึ่งมีหุ่นยนต์อาศัยอยู่

ในแง่ของกระบวนการผลิตแบบอัตโนมัติที่เพิ่มมากขึ้น อนาคตได้มาถึงแล้ว World Economic Forum (WEF) นำเสนอรายงาน โดยระบบอัตโนมัติจะนำไปสู่ความจริงที่ว่าก่อนปี 2020 ผู้คนมากกว่า 5 ล้านคนที่ทำงานในหลากหลายสาขาจะตกงาน นี่คือผลกระทบของหุ่นยนต์และระบบหุ่นยนต์ต่อชีวิตของเรา ในการรวบรวมรายงาน เจ้าหน้าที่ของ WEF ได้ใช้ข้อมูลจากคนงาน 13.5 ล้านคนจากทั่วโลก จากข้อมูลของพวกเขา ภายในปี 2020 ความต้องการงานมากกว่า 7 ล้านตำแหน่งจะหายไป ในขณะที่การจ้างงานในอุตสาหกรรมอื่นๆ ที่คาดหวังไว้จะมีมากกว่า 2 ล้านตำแหน่ง

แหล่งที่มาของข้อมูล:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html

นิตยสารออนไลน์ยอดนิยมของอเมริกา Wired ตีพิมพ์ข้อความที่น่าสนใจอย่างยิ่งโดย Kevin Kelly ซึ่งเขาวิพากษ์วิจารณ์แนวคิดเกี่ยวกับอันตรายของปัญญาประดิษฐ์อย่างถี่ถ้วน "NI" เผยแพร่คำแปลของเนื้อหานี้ ทำใช้ช่องโทรเลข Newochem พร้อมการลดขนาดเล็กน้อย

“ฉันได้ยินมาว่าในอนาคต คอมพิวเตอร์ที่มีปัญญาประดิษฐ์จะฉลาดกว่ามนุษย์มากจนทำให้เราต้องสูญเสียงานและทรัพยากร และในที่สุดมนุษยชาติก็จะถึงจุดสิ้นสุด แต่นี่เป็นเรื่องจริงเหรอ? ฉันจะถูกถามคำถามที่คล้ายกันทุกครั้งที่บรรยายเกี่ยวกับ AI

ผู้ถามจริงจังมากขึ้นกว่าเดิม ส่วนหนึ่งเป็นความกังวลของผู้เชี่ยวชาญบางคนที่ทุกข์ทรมานจากคำถามเดียวกัน ซึ่งรวมถึงผู้ที่ฉลาดที่สุดในยุคเดียวกันของเรา เช่น Stephen Hawking, Elon Musk, Max Tegmark, Sam Harris และ Bill Gates

พวกเขาทั้งหมดยอมรับความเป็นไปได้ของสถานการณ์เช่นนี้ ในการประชุม AI เมื่อเร็วๆ นี้ คณะกรรมการที่ประกอบด้วยกูรูผู้รู้แจ้งมากที่สุด 9 คนในสาขานี้ มาถึงข้อสรุปที่เป็นเอกฉันท์ว่าการสร้างความฉลาดเหนือมนุษย์เป็นสิ่งที่หลีกเลี่ยงไม่ได้และอยู่ใกล้แค่เอื้อม

ถึงกระนั้น สถานการณ์ของการตกเป็นทาสของมนุษยชาติด้วยปัญญาประดิษฐ์นั้นมีพื้นฐานอยู่บนสมมติฐานห้าประการ ซึ่งเมื่อตรวจสอบอย่างใกล้ชิด กลับกลายเป็นว่าไม่ได้รับการพิสูจน์ ข้อความเหล่านี้อาจเป็นจริงในอนาคต แต่ขณะนี้ยังไม่มีหลักฐาน

พวกเขาอยู่ที่นี่:

  1. ปัญญาประดิษฐ์มีความฉลาดกว่าจิตใจของมนุษย์อยู่แล้ว และกระบวนการนี้ก็ทวีคูณ
  2. เราจะพัฒนา AI วัตถุประสงค์ทั่วไปที่คล้ายคลึงกับของเรา
  3. เราสามารถสร้างสติปัญญาของมนุษย์จากซิลิคอนได้
  4. ความฉลาดสามารถไร้ขีดจำกัด
  5. การสร้างสติปัญญาที่ยิ่งใหญ่จะช่วยแก้ปัญหาส่วนใหญ่ของเราได้

ตรงกันข้ามกับหลักธรรมออร์โธดอกซ์เหล่านี้ ฉันสามารถอ้างอิงถึงความนอกรีตที่ได้รับการพิสูจน์แล้วดังต่อไปนี้:

  1. ความฉลาดไม่ใช่มิติเดียว ดังนั้น "ฉลาดกว่าบุคคล" จึงเป็นแนวคิดที่ไม่มีความหมาย
  2. ผู้คนไม่ได้มีสติปัญญาเพื่อวัตถุประสงค์ทั่วไป ซึ่งไม่เป็นภัยคุกคามต่อปัญญาประดิษฐ์
  3. การแข่งขันระหว่างมนุษย์และคอมพิวเตอร์จะถูกจำกัดด้วยต้นทุน
  4. ความฉลาดไม่มีขีดจำกัด
  5. การสร้าง AI เป็นเพียงส่วนหนึ่งของความก้าวหน้าเท่านั้น

หากความเชื่อในการเป็นทาสของมนุษย์ด้วยปัญญาประดิษฐ์นั้นมีพื้นฐานมาจากสมมติฐานที่ไม่มีมูลห้าประการ แนวคิดนี้ก็คล้ายกับความเชื่อทางศาสนามากกว่า - ตำนาน ในบทต่อไปนี้ ฉันจะเสริมการโต้แย้งของฉันด้วยข้อเท็จจริง และพิสูจน์ว่าปัญญาประดิษฐ์เหนือมนุษย์นั้นไม่มีอะไรมากไปกว่าตำนาน

ความเข้าใจผิดที่พบบ่อยที่สุดเกี่ยวกับ AI มาจากมุมมองที่ได้รับความนิยมไม่แพ้กันเกี่ยวกับความฉลาดทางธรรมชาติที่เป็นมิติเดียว ในสาขาวิทยาศาสตร์หนัก หลายๆ คนพรรณนาถึงความฉลาดแบบเดียวกับที่ Nick Bostrom ทำในหนังสือ Superintelligence ของเขา ซึ่งจริงๆ แล้วเป็นกราฟเส้นหนึ่งมิติที่มีแอมพลิจูดเพิ่มขึ้น

ที่ปลายด้านหนึ่งมีสิ่งมีชีวิตที่มีระดับสติปัญญาต่ำสุด เช่น สัตว์เล็ก และอีกด้านหนึ่งมีอัจฉริยะ ราวกับว่าระดับสติปัญญาไม่แตกต่างจากระดับเสียงที่วัดเป็นเดซิเบล แน่นอน ในกรณีนี้ มันเป็นเรื่องง่ายที่จะจินตนาการถึงการเพิ่มขึ้นอีกซึ่งระดับสติปัญญาเกินจุดสูงสุดของกราฟและยังไปไกลกว่านั้นด้วยซ้ำ

แบบจำลองนี้เทียบเท่ากับทอพอโลยีขั้นบันได โดยขั้นต่างๆ ของระดับสติปัญญาจะถูกจัดเรียงจากน้อยไปหามาก สัตว์ที่ฉลาดน้อยกว่าจะครอบครองขั้นล่างของบันได และปัญญาประดิษฐ์ระดับสูงจะอยู่เหนือเราอย่างหลีกเลี่ยงไม่ได้ กรอบเวลาในการเกิดเหตุการณ์เช่นนี้ไม่สำคัญ สิ่งที่สำคัญกว่านั้นคือขั้นตอนของลำดับชั้นเอง - ตัวชี้วัดของการเติบโตทางสติปัญญา

ปัญหาของโมเดลนี้คือ มันเป็นตำนาน เช่นเดียวกับโมเดลบันไดวิวัฒนาการ ก่อนลัทธิดาร์วิน ธรรมชาติที่มีชีวิตถูกนำเสนอเป็นบันไดของสิ่งมีชีวิต โดยที่มนุษย์ครอบครองเหนือสัตว์ดึกดำบรรพ์หนึ่งขั้น

และแม้กระทั่งหลังจากดาร์วิน บันไดแห่งวิวัฒนาการก็ยังคงเป็นหนึ่งในแนวคิดที่พบบ่อยที่สุด มันแสดงให้เห็นการเปลี่ยนแปลงของปลาเป็นสัตว์เลื้อยคลาน เป็นสัตว์เลี้ยงลูกด้วยนม และสัตว์เลี้ยงลูกด้วยนมเป็นมนุษย์ ยิ่งไปกว่านั้น สิ่งมีชีวิตแต่ละชนิดที่ตามมาได้รับการพัฒนามากขึ้น (และแน่นอนว่ามีความฉลาดมากกว่า) มากกว่ารุ่นก่อน ดังนั้น บันไดแห่งปัญญาจึงสัมพันธ์กับบันไดแห่งจักรวาล อย่างไรก็ตาม ทั้งสองโมเดลสะท้อนมุมมองที่ต่อต้านวิทยาศาสตร์โดยสิ้นเชิง

แผนภาพวิวัฒนาการทางธรรมชาติที่แม่นยำยิ่งขึ้นคือจานที่แผ่ออกไปด้านนอก ดังในภาพด้านบน โครงสร้างนี้ได้รับการพัฒนาครั้งแรกโดย David Hillis จากมหาวิทยาลัยเท็กซัส โดยอิงจาก DNA มันดาลาลำดับวงศ์ตระกูลนี้เริ่มต้นที่ศูนย์กลางด้วยรูปแบบชีวิตดั้งเดิมที่สุด จากนั้นจึงแตกแขนงออกไปด้านนอก เวลาเคลื่อนไปข้างหน้า ดังนั้น รูปแบบของชีวิตล่าสุดจึงตั้งอยู่รอบๆ เส้นรอบวงของวงกลม

ภาพนี้เน้นข้อเท็จจริงที่ประเมินค่าไม่ได้เกี่ยวกับวิวัฒนาการที่มีความสำคัญขั้นพื้นฐาน - สิ่งมีชีวิตทุกชนิดมีวิวัฒนาการอย่างเท่าเทียมกัน มนุษย์จะอยู่ที่ส่วนนอกของดิสก์ พร้อมด้วยแมลงสาบ หอย หอย เฟิร์น สุนัขจิ้งจอก และแบคทีเรีย

โดยไม่มีข้อยกเว้น ทุกสายพันธุ์ได้ผ่านห่วงโซ่การสืบพันธุ์ที่ประสบความสำเร็จอย่างต่อเนื่องยาวนานถึงสามพันล้านปี ซึ่งหมายความว่าแบคทีเรียและแมลงสาบมีวิวัฒนาการสูงเช่นเดียวกับมนุษย์ ไม่มีบันได

ในทำนองเดียวกันไม่มีบันไดแห่งสติปัญญา ความฉลาดไม่ใช่มิติเดียว มันเป็นความซับซ้อนของความรู้ประเภทต่างๆ และวิธีการรู้ ซึ่งแต่ละวิธีมีความต่อเนื่องกัน เรามาทำแบบฝึกหัดง่ายๆ เพื่อวัดความฉลาดในสัตว์กันดีกว่า หากความฉลาดเป็นมิติเดียว เราก็สามารถจัดอันดับเพื่อเพิ่มสติปัญญาได้อย่างง่ายดาย เช่น นกแก้ว โลมา ม้า กระรอก ปลาหมึกยักษ์ วาฬสีน้ำเงิน แมว และกอริลลา

ขณะนี้ยังไม่มีหลักฐานทางวิทยาศาสตร์เกี่ยวกับการมีอยู่ของลำดับดังกล่าว สาเหตุนี้อาจเกิดจากการขาดความแตกต่างระหว่างระดับสติปัญญาของสัตว์บางชนิด แต่ก็ไม่มีมูลเช่นกัน

สัตววิทยาอุดมไปด้วยตัวอย่างของความแตกต่างที่ชัดเจนในการคิดของสัตว์ บางทีสัตว์ทุกตัวอาจมีสติปัญญาแบบ "จุดประสงค์ทั่วไป" ก็ได้? บางที แต่เราไม่มีเครื่องมือเดียวในการวัดความฉลาดประเภทนี้ อย่างไรก็ตาม เรามีระบบการวัดมากมายสำหรับการรับรู้ประเภทต่างๆ

แทนที่จะเป็นบรรทัดเดซิเบลเส้นเดียว เป็นการเหมาะสมกว่าที่จะพรรณนาถึงความฉลาดเป็นแผนภาพของปริภูมิความน่าจะเป็น ดังเช่นในการแสดงรูปร่างที่เป็นไปได้ที่สร้างขึ้นโดยอัลกอริทึมของริชาร์ด ดอว์กินส์ ความฉลาดเป็นความต่อเนื่องแบบผสมผสาน โหนดจำนวนมากซึ่งแต่ละโหนดมีความต่อเนื่องกัน ก่อให้เกิดความซับซ้อนที่มีความหลากหลายมหาศาลในหลายมิติ ความฉลาดบางประเภทอาจซับซ้อนมาก โดยมีชุดโหนดย่อยของการคิดจำนวนมาก บางอย่างนั้นเรียบง่ายกว่า แต่สุดขั้วมากกว่า พวกเขาไปถึงจุดสุดโต่งของอวกาศ

คอมเพล็กซ์เหล่านี้ซึ่งหมายถึงสติปัญญาประเภทต่างๆ สำหรับเรา สามารถรับรู้ได้ว่าเป็นซิมโฟนีที่แสดงบนเครื่องดนตรีประเภทต่างๆ พวกเขาแตกต่างกันไม่เพียงแต่ในระดับเสียงเท่านั้น แต่ยังรวมถึงทำนอง สี จังหวะ ฯลฯ คุณสามารถมองว่าสิ่งเหล่านี้เป็นระบบนิเวศ ในแง่นี้ องค์ประกอบต่างๆ ของโหนดการคิดจะพึ่งพาซึ่งกันและกันและถูกสร้างขึ้นจากกันและกัน

ดังที่ Marvin Minsky กล่าว จิตสำนึกของมนุษย์เป็นสังคมแห่งเหตุผล ความคิดของเราคือระบบนิเวศที่สมบูรณ์ สมองของเรามีวิธีการรับรู้หลายวิธีซึ่งทำหน้าที่ทางจิตที่แตกต่างกัน เช่น การนิรนัย การชักนำ ความฉลาดทางอารมณ์ การคิดเชิงนามธรรมและการคิดเชิงพื้นที่ ความจำระยะสั้นและระยะยาว

ระบบประสาทของมนุษย์ทั้งหมดเป็นส่วนหนึ่งของสมองที่มีระดับการรับรู้ของตัวเอง ในความเป็นจริง กระบวนการคิดไม่ได้ดำเนินการโดยสมอง แต่โดยร่างกายมนุษย์ทั้งหมด

การคิดทุกประเภทแตกต่างกันไปทั้งระหว่างสายพันธุ์และระหว่างสมาชิกของสายพันธุ์เดียวกัน กระรอกสามารถจำตำแหน่งที่แน่นอนของลูกโอ๊กหลายพันลูกได้เป็นเวลาหลายปี ซึ่งมนุษย์ไม่สามารถเข้าใจได้อย่างสมบูรณ์ การคิดแบบนี้มนุษย์ด้อยกว่ากระรอก ความฉลาดของกระรอกคือการผสมผสานระหว่างมหาอำนาจนี้เข้ากับความฉลาดรูปแบบอื่น ๆ ซึ่งมนุษย์เหนือกว่ากระรอก ในอาณาจักรสัตว์ เราสามารถพบตัวอย่างมากมายที่แสดงถึงความเหนือกว่าของสติปัญญาของสัตว์บางรูปแบบเหนือสติปัญญาของมนุษย์

สถานการณ์เดียวกันนี้ได้พัฒนาปัญญาประดิษฐ์ซึ่งในบางพื้นที่มีความเหนือกว่าสติปัญญาของมนุษย์อยู่แล้ว เครื่องคิดเลขทุกเครื่องถือเป็นอัจฉริยะทางคณิตศาสตร์ และหน่วยความจำของเครื่องมือค้นหาของ Google ก็ดีกว่าของเราในบางด้านอยู่แล้ว

AI บางตัวทำกิจกรรมทางจิตที่เราไม่สามารถทำได้ การจดจำทุกคำบนหน้าเว็บหกพันล้านหน้าถือเป็นงานที่น่ากลัวสำหรับมนุษย์และเป็นเรื่องง่ายสำหรับเครื่องมือค้นหา ในอนาคต เราจะสร้างวิธีคิดแบบใหม่ที่มนุษย์ไม่สามารถเข้าถึงได้และไม่มีอยู่ในธรรมชาติ

ผู้ประดิษฐ์เครื่องบินได้รับแรงบันดาลใจจากการบินตามธรรมชาติ - การกระพือปีก อย่างไรก็ตาม ต่อมาได้มีการประดิษฐ์ปีกคงที่ซึ่งมีใบพัดติดอยู่ และนี่คือหลักการบินใหม่โดยสิ้นเชิง ซึ่งไม่พบในธรรมชาติ

นี่คือวิธีที่เราคิดค้นวิธีคิดใหม่ๆ ที่ไม่มีสายพันธุ์อื่นสามารถทำได้ เป็นไปได้มากว่าสิ่งเหล่านี้จะเป็นหลักการที่ใช้เฉพาะกับปัญหาเฉพาะทางเท่านั้น ตัวอย่างเช่น โครงสร้างเชิงตรรกะใหม่ซึ่งจำเป็นเฉพาะในสถิติและทฤษฎีความน่าจะเป็นเท่านั้น

การคิดแบบใหม่จะช่วยแก้ปัญหาที่จิตใจมนุษย์รับมือไม่ได้ คำถามที่ยากที่สุดในธุรกิจและวิทยาศาสตร์ต้องใช้วิธีแก้ปัญหาสองขั้นตอน ขั้นแรกคือการคิดค้นวิธีการคิดตามธรรมชาติแบบใหม่ ประการที่สองคือการเริ่มค้นหาคำตอบร่วมกับ AI

ผู้คนจะเริ่มมองว่า AI ฉลาดกว่าตนเอง หากสามารถช่วยแก้ไขปัญหาที่แก้ไขไม่ได้ก่อนหน้านี้ได้ จริงๆ แล้วการคิดของ AI ไม่ได้ดีไปกว่าเราหรอก แค่แตกต่างเท่านั้น ฉันเชื่อว่าประโยชน์หลักของปัญญาประดิษฐ์คือสามารถคิดเหมือนมนุษย์ต่างดาวได้ และความแปลกแยกนี้เป็นข้อได้เปรียบหลักของมัน

นอกจากนี้ เราจะสร้าง “ชุมชน” AI ที่ซับซ้อนด้วยวิธีคิดที่แตกต่างกัน พวกเขาจะซับซ้อนมากจนสามารถแก้ไขปัญหาที่เราแก้ไม่ได้ ดังนั้นบางคนจะตัดสินใจผิดพลาดว่า AI คอมเพล็กซ์มีความฉลาดมากกว่ามนุษย์ แต่เราไม่คิดว่าเครื่องมือค้นหาของ Google ฉลาดกว่าบุคคลแม้ว่าความจำของเขาจะดีกว่าของเราก็ตาม

มีแนวโน้มว่ากลุ่มปัญญาประดิษฐ์เหล่านี้จะเหนือกว่าเราในหลายพื้นที่ แต่ไม่มีสิ่งใดที่จะเหนือกว่ามนุษย์ทุกหนทุกแห่งในคราวเดียว สถานการณ์คล้ายกันได้พัฒนาไปพร้อมกับความแข็งแกร่งทางร่างกายของเรา เวลาผ่านไปสองร้อยปีนับตั้งแต่การปฏิวัติอุตสาหกรรม และไม่มีเครื่องจักรใดที่แข็งแกร่งกว่าคนทั่วไปไม่ว่าในแง่ใด แม้ว่าเครื่องจักรในระดับเดียวกันจะเหนือกว่ามนุษย์อย่างมากในด้านความเร็วในการวิ่ง การยกน้ำหนัก ความแม่นยำในการตัด และกิจกรรมอื่นๆ

แม้ว่าโครงสร้างของ AI จะมีความซับซ้อนเพิ่มขึ้น แต่ก็เป็นไปไม่ได้ที่จะวัดโดยใช้วิธีการทางวิทยาศาสตร์สมัยใหม่ เราไม่มีเครื่องมือในการพิจารณาว่าแตงกวาหรือเครื่องบินโบอิ้ง 747 นั้นซับซ้อนกว่าหรือไม่ และเราก็ไม่มีทางวัดความแตกต่างในความซับซ้อนของพวกมันด้วย นั่นคือเหตุผลที่เรายังไม่มีเกณฑ์ที่ชัดเจนสำหรับความสามารถทางปัญญา

เมื่อเวลาผ่านไป มันจะยากขึ้นเรื่อยๆ ที่จะระบุได้ว่าสิ่งไหนที่ซับซ้อนกว่า และฉลาดกว่าด้วยเหตุนี้: ความฉลาด A หรือความฉลาด B กิจกรรมทางจิตมีหลายด้านที่ยังไม่ได้สำรวจ และสาเหตุหลักนี้ขัดขวางเราไม่ให้เข้าใจว่าจิตใจไม่ใช่หนึ่งเดียว มิติ

ความเข้าใจผิดประการที่สองเกี่ยวกับจิตใจมนุษย์คือเราเชื่อว่าจิตใจของเราเป็นสากล ความเชื่อที่แพร่หลายนี้มีอิทธิพลต่อเส้นทางที่เรามุ่งสู่การสร้างปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งครั้งหนึ่งผู้เชี่ยวชาญด้าน AI ได้ประกาศไว้

อย่างไรก็ตาม ถ้าเราคิดว่าจิตใจเป็นพื้นที่กว้างใหญ่ของความเป็นไปได้ เราไม่สามารถพูดถึงสภาวะของจุดประสงค์ทั่วไปได้ จิตใจของมนุษย์ไม่ได้ครอบครองจุดศูนย์กลางที่เป็นนามธรรม และจิตใจประเภทพิเศษอื่นๆ ไม่ได้หมุนรอบมัน

แต่ความฉลาดของมนุษย์เป็นความฉลาดประเภทหนึ่งที่มีความเฉพาะเจาะจงอย่างยิ่งซึ่งมีการพัฒนามาเป็นเวลาหลายล้านปีเพื่อความอยู่รอดของสายพันธุ์ของเราบนโลกใบนี้ หากเราต้องการที่จะวางสติปัญญาของเราไว้เหนือความฉลาดประเภทอื่นๆ ที่เป็นไปได้ มันก็จะไปอยู่ที่ไหนสักแห่งในมุมหนึ่ง เหมือนโลกของเราเอง ที่รวมตัวกันอยู่ขอบกาแล็กซีขนาดมหึมา

แน่นอนว่าเราสามารถจินตนาการและบางครั้งก็ประดิษฐ์ความคิดแบบหนึ่งที่มีลักษณะคล้ายกับมีดทหารของสวิสได้ ดูเหมือนเขาจะรับมือกับงานหลายอย่างได้ แต่ก็ไม่สู้ดีนัก

รวมถึงกฎทางเทคนิคที่ทุกสิ่งต้องปฏิบัติตาม ไม่ว่าจะถูกสร้างขึ้นโดยเจตนาหรือเกิดขึ้นตามธรรมชาติก็ตาม “เป็นไปไม่ได้ที่จะปรับทุกมิติให้เหมาะสมที่สุด คุณจะพบการประนีประนอมเท่านั้น เครื่องมัลติฟังก์ชั่นอเนกประสงค์ไม่สามารถทำงานได้ดีกว่าฟังก์ชันเฉพาะทางได้”

ความคิดที่ทำทุกอย่างไม่สามารถทัดเทียมกับผู้ปฏิบัติงานเฉพาะทางในงานเฉพาะเจาะจงได้ เนื่องจากเราถือว่าจิตสำนึกของเราเป็นกลไกสากล เราจึงเชื่อว่าการรับรู้ไม่ควรอยู่บนพื้นฐานของการประนีประนอม และเป็นไปได้ที่จะประดิษฐ์ปัญญาประดิษฐ์ที่แสดงให้เห็นถึงระดับประสิทธิภาพสูงสุดในการคิดทุกประเภท

อย่างไรก็ตาม ฉันไม่เห็นหลักฐานสำหรับการกล่าวอ้างนี้ เรายังไม่ได้สร้างจิตสำนึกที่หลากหลายเพียงพอที่จะทำให้เรามองเห็นภาพรวมได้ (และตอนนี้เราไม่ต้องการถือว่าจิตสำนึกของสัตว์ผ่านปริซึมของพารามิเตอร์ตัวเดียวเป็นประเภทการคิดที่แยกจากกันและมีแอมพลิจูดที่แปรผัน)

ส่วนหนึ่งของความเชื่อที่ว่าความคิดของเรามีความเป็นสากลมากที่สุดเท่าที่จะเป็นไปได้นั้นมาจากแนวคิดเรื่องคอมพิวเตอร์สากล สมมติฐานนี้เรียกว่าวิทยานิพนธ์ของคริสตจักรทัวริงในปี 1950 โดยระบุว่าการคำนวณทั้งหมดที่ตรงตามพารามิเตอร์บางตัวจะเทียบเท่ากัน

ดังนั้นจึงมีฐานที่เป็นสากลสำหรับการคำนวณทั้งหมด ไม่ว่าการคำนวณจะดำเนินการด้วยเครื่องจักรเครื่องเดียวที่มีกลไกที่รวดเร็วมากมาย โดยเครื่องจักรที่มีประสิทธิผลน้อยกว่า หรือแม้แต่ในสมองทางชีววิทยา เรากำลังพูดถึงกระบวนการทางตรรกะเดียวกัน ในทางกลับกันหมายความว่าเราสามารถจำลองกระบวนการคำนวณ (การคิด) โดยใช้เครื่องจักรใด ๆ ที่สามารถทำการคำนวณแบบ "สากล" ได้

การใช้หลักการนี้ ผู้เสนอความเป็นเอกเทศแสดงให้เห็นถึงความคาดหวังของพวกเขาว่าเราจะสามารถออกแบบสมองเทียมที่ใช้ซิลิคอนซึ่งสามารถรองรับจิตสำนึกของมนุษย์ได้ และเราจะสามารถสร้างปัญญาประดิษฐ์ที่จะคิดแบบเดียวกับบุคคลได้ แต่ ได้อย่างมีประสิทธิภาพมากขึ้น ความหวังเหล่านี้ควรได้รับการปฏิบัติด้วยความสงสัยในระดับหนึ่ง เนื่องจากมีพื้นฐานมาจากการตีความวิทยานิพนธ์ของคริสตจักรทัวริงที่ไม่ถูกต้อง

จุดเริ่มต้นของทฤษฎีนี้คือ: “ภายใต้เงื่อนไขของหน่วยความจำและเวลาไม่จำกัด การคำนวณทั้งหมดจะเทียบเท่ากัน” ปัญหาก็คือ ในความเป็นจริง ไม่มีคอมพิวเตอร์เครื่องใดที่มีคุณลักษณะของหน่วยความจำหรือเวลาที่ไม่มีที่สิ้นสุด เมื่อคุณทำการคำนวณในโลกแห่งความเป็นจริง องค์ประกอบของเวลามีความสำคัญอย่างยิ่ง จนถึงจุดที่มักจะขึ้นอยู่กับความเป็นและความตาย

ใช่ การคิดทุกประเภทเท่าเทียมกัน หากคุณไม่รวมแง่มุมของเวลา ใช่ เป็นไปได้ที่จะจำลองความคิดของมนุษย์ในเมทริกซ์ใดๆ หากคุณเลือกที่จะเพิกเฉยต่อเวลาหรือข้อจำกัดของพื้นที่และความทรงจำในความเป็นจริง

อย่างไรก็ตาม หากคุณรวมตัวแปรเวลาไว้ในสมการนี้ คุณจะต้องเปลี่ยนการกำหนดหลักการอย่างมาก: “ระบบคอมพิวเตอร์สองระบบที่ทำงานบนแพลตฟอร์มที่แตกต่างกันโดยสิ้นเชิงจะไม่ทำการคำนวณที่เทียบเท่ากันแบบเรียลไทม์”

หลักการนี้สามารถกล่าวซ้ำได้ดังต่อไปนี้: “วิธีเดียวที่จะได้วิธีคิดที่เท่าเทียมกันคือการปฏิบัติบนพื้นฐานเดียวกัน สื่อทางกายภาพที่คุณใช้ในการคำนวณ โดยเฉพาะอย่างยิ่งเมื่อความซับซ้อนเพิ่มขึ้น มีอิทธิพลอย่างมากต่อประเภทของการคิดแบบเรียลไทม์"

ดำเนินการต่อจากห่วงโซ่เชิงตรรกะ ฉันจะถือว่าวิธีเดียวในการสร้างความคิดประเภทหนึ่งที่ใกล้เคียงกับมนุษย์มากที่สุดคือการคำนวณโดยใช้สสารที่คล้ายกับสสารสีเทาของเราอย่างใกล้ชิด

ซึ่งหมายความว่าเราสามารถสรุปได้ว่าปัญญาประดิษฐ์ที่ซับซ้อนและใหญ่โตที่สร้างขึ้นบนพื้นฐานของซิลิคอนแห้งจะสร้างความคิดที่งุ่มง่าม ซับซ้อน และไม่ใช่มนุษย์ หากสามารถสร้างปัญญาประดิษฐ์ที่ทำงานบนวัตถุเปียกโดยใช้เซลล์ประสาทเทียมที่เหมือนมนุษย์ได้ กระบวนการคิดของ AI ดังกล่าวจะเข้าใกล้เรามากขึ้น

ข้อดีของระบบ "เปียก" ดังกล่าวนั้นแปรผันตามระยะห่างของสื่อทางกายภาพที่มนุษย์ใช้ การสร้างสารดังกล่าวจะต้องใช้ต้นทุนวัสดุมหาศาลเพื่อที่จะบรรลุระดับอย่างน้อยก็ใกล้เคียงกับสิ่งที่มีอยู่ในธรรมชาติของเรา และเราสามารถสร้างคนใหม่ได้ด้วยวิธีนี้ - เราต้องรออีก 9 เดือน

ดังที่กล่าวไปแล้วข้างต้น เราคิดด้วยความเป็นอยู่ทั้งหมด ไม่ใช่แค่ด้วยจิตสำนึกของเราเท่านั้น วิทยาศาสตร์สมัยใหม่มีข้อมูลมากมายเกี่ยวกับวิธีที่ระบบประสาทของเรามีอิทธิพล ทำนาย และปรับตัวในกระบวนการตัดสินใจที่ "มีเหตุผล" ของเรา ยิ่งเราดูรายละเอียดของระบบร่างกายมนุษย์มากเท่าไร เราก็จะสามารถสร้างมันขึ้นมาใหม่ได้อย่างระมัดระวังมากขึ้นเท่านั้น ปัญญาประดิษฐ์ที่ทำงานบนสารที่แตกต่างอย่างสิ้นเชิงจากของเรา (ซิลิคอนแห้งแทนที่จะเป็นคาร์บอนเปียก) ก็จะคิดแตกต่างออกไปเช่นกัน

ฉันไม่คิดว่าฟีเจอร์นี้เป็น "ฟีเจอร์มากกว่าข้อบกพร่อง" ดังที่ผมได้กล่าวไว้ในประเด็นที่สองของบทความนี้ ความแตกต่างในกระบวนการคิดของ AI ถือเป็นข้อได้เปรียบหลัก นี่เป็นอีกเหตุผลว่าทำไมการบอกว่ามัน "ฉลาดกว่าสมองมนุษย์" จึงเป็นเรื่องผิด

หัวใจสำคัญของแนวคิดเรื่องความฉลาดเหนือมนุษย์ - และโดยเฉพาะอย่างยิ่งทฤษฎีการพัฒนาตนเองอย่างต่อเนื่องของ AI ดังกล่าว - คือความเชื่ออย่างจริงใจในความฉลาดที่ไร้ขีดจำกัด ฉันไม่พบหลักฐานสำหรับการกล่าวอ้างนี้

ขอย้ำอีกครั้งว่า ความเข้าใจผิดเกี่ยวกับสติปัญญาในฐานะระบบที่กำหนดโดยมิติเดียวเท่านั้น มีส่วนทำให้เกิดการแพร่กระจายของข้อความนี้ แต่เราต้องเข้าใจว่ายังไม่มีมูลความจริง ไม่มีมิติทางกายภาพที่ไม่มีที่สิ้นสุดในจักรวาล - อย่างน้อยก็ยังไม่เป็นที่รู้ทางวิทยาศาสตร์

อุณหภูมิไม่สิ้นสุด - มีค่าต่ำสุดและสูงสุดของความเย็นและความอบอุ่น พื้นที่และเวลาไม่ได้จำกัด และความเร็วก็เช่นกัน บางทีแกนจำนวนอาจเรียกได้ว่าไม่มีที่สิ้นสุด แต่พารามิเตอร์ทางกายภาพอื่นๆ ทั้งหมดก็มีขีดจำกัด แน่นอนว่าจิตใจเองก็มีขอบเขตจำกัดเช่นกัน

คำถามเกิดขึ้น: ขีดจำกัดของสติปัญญาอยู่ที่ไหน? เราคุ้นเคยกับการเชื่อว่าขอบเขตนั้นอยู่ไกลออกไป ดังที่ "อยู่เหนือ" เรา เช่นเดียวกับที่เรา "อยู่เหนือ" มด นอกจากปัญหาที่ยังไม่ได้รับการแก้ไขของมิติเดียวแล้ว เราจะพิสูจน์ได้อย่างไรว่าเรายังไม่ถึงขีดจำกัด? ทำไมเราไม่สามารถเป็นมงกุฎแห่งการสร้างสรรค์ได้? หรือบางทีเราเกือบจะถึงขีดจำกัดความสามารถของมนุษย์แล้ว? เหตุใดเราจึงเชื่อว่าความฉลาดเป็นแนวคิดที่มีการพัฒนาอย่างไม่สิ้นสุด

เป็นการดีกว่าที่จะมองว่าสติปัญญาของเราเป็นหนึ่งในประเภทของการคิดจำนวนมาก แม้ว่าทุกมิติของการรับรู้และการคำนวณจะมีขีดจำกัด แต่หากมีหลายร้อยมิติ ก็จะมีสติปัญญาที่หลากหลายนับไม่ถ้วน แต่ไม่มีมิติใดที่ไม่มีที่สิ้นสุดในทุกมิติ

เมื่อเราสร้างหรือเผชิญกับรูปแบบต่างๆ มากมายเกี่ยวกับจิตสำนึก เราอาจพบว่าสิ่งเหล่านั้นเกินความสามารถของเรา ในหนังสือเล่มล่าสุดของฉัน The Inevitable ฉันได้สรุปรายการบางประเภทที่ด้อยกว่าเราไม่ทางใดก็ทางหนึ่ง ด้านล่างฉันจะให้ส่วนหนึ่งของรายการนี้:

จิตใจที่ใกล้ชิดกับมนุษย์มากที่สุด แต่มีความเร็วในการตอบสนองที่สูงกว่า (ปัญญาประดิษฐ์ที่ง่ายที่สุด)

จิตใจที่ช้ามาก องค์ประกอบหลักคือพื้นที่เก็บข้อมูลและหน่วยความจำที่กว้างขวาง

หน่วยสืบราชการลับสากลประกอบด้วยจิตสำนึกส่วนบุคคลนับล้านที่ทำหน้าที่พร้อมเพรียงกัน

จิตที่เป็นรังประกอบด้วยความฉลาดที่มีประสิทธิผลอย่างมากจำนวนมาก โดยไม่รู้ว่าเป็นอันหนึ่งอันเดียวกัน

Borg supermind (เผ่าพันธุ์ของไซบอร์กที่มีจิตใจส่วนรวมพยายามหลอมรวมเข้ากับสิ่งมีชีวิตทั้งหมดจากซีรีส์ Star Trek - ประมาณ นิวอะเบาท์) - ความฉลาดในการใช้งานสูงมากมายโดยตระหนักดีว่าเป็นหนึ่งเดียว

จิตใจที่สร้างขึ้นเพื่อพัฒนาจิตสำนึกส่วนบุคคลของผู้สวมใส่แต่ไม่เหมาะกับผู้อื่น

จิตใจสามารถจินตนาการถึงจิตใจที่ซับซ้อนมากขึ้นได้ แต่ไม่สามารถสร้างมันขึ้นมาได้

จิตใจที่สามารถสร้างจิตใจที่ซับซ้อนมากขึ้นได้สำเร็จในวันหนึ่ง

จิตใจที่สามารถสร้างจิตใจที่ซับซ้อนมากขึ้น ซึ่งในทางกลับกันก็สามารถสร้างจิตใจที่ซับซ้อนมากขึ้นได้ เป็นต้น

จิตใจที่สามารถเข้าถึงซอร์สโค้ดได้อย่างรวดเร็ว (สามารถเปลี่ยนคุณสมบัติการทำงานของมันได้ตลอดเวลา)

จิตใจเหนือธรรมชาติปราศจากความสามารถในการสัมผัสอารมณ์

จิตใจมาตรฐาน มุ่งแก้ไขปัญหาที่ได้รับมอบหมาย แต่ไม่สามารถวิปัสสนาได้

มีจิตใจที่สามารถวิปัสสนาได้ แต่ไม่สามารถแก้ไขปัญหาที่ได้รับมอบหมายได้

จิตที่การพัฒนาใช้เวลานานและต้องการจิตที่คอยปกป้อง

จิตใจที่เชื่องช้าเป็นพิเศษ กระจายไปทั่วพื้นที่ทางกายภาพอันกว้างใหญ่ ซึ่งดูเหมือน "มองไม่เห็น" กับรูปแบบของจิตสำนึกที่ตอบสนองได้เร็วกว่า

จิตใจที่สามารถสร้างสำเนาของตัวเองได้อย่างรวดเร็วและซ้ำแล้วซ้ำอีก

จิตใจที่สามารถสร้างสำเนาและคงความเป็นหนึ่งเดียวกับพวกมันได้

จิตใจที่สามารถบรรลุความเป็นอมตะโดยการย้ายจากที่หนึ่งไปยังอีกที่หนึ่ง

จิตใจที่ว่องไว มีพลัง สามารถเปลี่ยนกระบวนการและธรรมชาติของการคิดได้

Nano-mind ซึ่งเป็นหน่วยอิสระที่เล็กที่สุด (ขนาดและพลังงานที่ส่งออก) ที่สามารถวิเคราะห์ตนเองได้

จิตใจที่เชี่ยวชาญในการสร้างสถานการณ์และการพยากรณ์

จิตที่ไม่เคยลืมสิ่งใดๆ รวมถึงข้อมูลที่ไม่ถูกต้อง

ครึ่งเครื่องจักร ครึ่งสัตว์

ชิ้นส่วนเครื่องจักร, ชิ้นส่วนหุ่นยนต์กะเทย;

จิตใจที่ใช้ในการวิเคราะห์เชิงปริมาณในการทำงานซึ่งเราไม่อาจเข้าใจได้

ทุกวันนี้ บางคนเรียกการคิดแต่ละประเภทว่า AI เหนือมนุษย์ แต่ในอนาคตความหลากหลายและความแปลกแยกของรูปแบบสติปัญญาเหล่านี้จะบังคับให้เราหันไปหาพจนานุกรมใหม่และศึกษารายละเอียดหัวข้อการคิดและสติปัญญา

นอกจากนี้ ผู้เสนอแนวคิดเรื่อง AI เหนือมนุษย์ยังถือว่าระดับความสามารถทางจิตของมันจะเพิ่มขึ้นแบบทวีคูณ (แม้ว่าพวกเขาจะยังไม่มีระบบในการประเมินระดับนี้ก็ตาม) บางทีพวกเขาอาจเชื่อว่ากระบวนการพัฒนาแบบก้าวกระโดดกำลังเกิดขึ้นแล้ว

ไม่ว่าจะด้วยวิธีใด ปัจจุบันนี้ยังไม่มีหลักฐานของการเติบโตดังกล่าว ไม่ว่าคุณจะวัดผลด้วยวิธีใดก็ตาม มิฉะนั้น นี่อาจหมายความว่าความสามารถทางจิตของ AI เพิ่มขึ้นเป็นสองเท่าในช่วงระยะเวลาหนึ่ง

เรื่องนี้ยืนยันได้ที่ไหน? สิ่งเดียวที่กำลังเติบโตแบบก้าวกระโดดในตอนนี้คือการลงทุนในอุตสาหกรรม AI แต่ผลตอบแทนจากการลงทุนเหล่านี้ไม่สามารถอธิบายได้ตามกฎของมัวร์ AI จะไม่ฉลาดเป็นสองเท่าในสามปี หรือแม้แต่สิบปีด้วยซ้ำ

ฉันถามผู้เชี่ยวชาญหลายคนในสาขา AI แต่ทุกคนเห็นพ้องว่าเราไม่มีเกณฑ์สำหรับความฉลาด เมื่อฉันถาม Ray Kurzweil พ่อมดเอ็กซ์โพเนนเชียลที่แท้จริง ว่าจะหาหลักฐานการพัฒนา AI แบบทวีคูณได้ที่ไหน เขาเขียนถึงฉันว่าการพัฒนา AI ไม่ใช่กระบวนการที่ระเบิดได้ แต่เป็นกระบวนการที่ค่อยเป็นค่อยไป

“ในการเพิ่มระดับใหม่ให้กับลำดับชั้นนั้น จำเป็นต้องมีทั้งการเพิ่มพลังการคำนวณแบบเอ็กซ์โปเนนเชียลและความซับซ้อนของอัลกอริทึมที่เพิ่มขึ้น... ดังนั้น เราควรคาดหวังว่าจำนวนระดับแบบมีเงื่อนไขจะเพิ่มขึ้นเชิงเส้น เนื่องจากแต่ละระดับต้องมี ความสามารถของเราเพิ่มขึ้นอย่างทวีคูณ เรายังมีความซับซ้อนไม่มากนักในการบรรลุความสามารถ AI ของนีโอคอร์เท็กซ์ (ส่วนหลักของเปลือกสมองของมนุษย์ ซึ่งมีหน้าที่ในการทำงานของระบบประสาทที่สูงขึ้น - ประมาณ ใหม่อะไร) ดังนั้น ฉันยังคงเชื่อว่าสมมติฐานของฉันเกี่ยวกับปี 2029 นั้นถูกต้อง”

เรย์ดูเหมือนจะบอกว่าไม่ใช่พลังของปัญญาประดิษฐ์ที่กำลังเติบโตแบบทวีคูณ แต่เป็นความพยายามที่จะสร้างมันขึ้นมา ในขณะที่ผลลัพธ์ของพวกเขาก็เพิ่มขึ้นทีละขั้นในแต่ละครั้ง นี่เกือบจะตรงกันข้ามกับสมมติฐานการระเบิดของสติปัญญา สิ่งนี้อาจมีการเปลี่ยนแปลงในอนาคต แต่เห็นได้ชัดว่า AI ไม่ได้เติบโตแบบทวีคูณในปัจจุบัน

ดังนั้นเมื่อเราจินตนาการถึง “AI boom” เราควรคิดว่ามันไม่ใช่เหมือนหิมะถล่ม แต่เป็นการแตกออกเป็นสายพันธุ์ใหม่ๆ มากมาย ผลลัพธ์ของความก้าวหน้าทางเทคโนโลยีมักจะไม่ใช่ซูเปอร์แมน แต่เป็นซูเปอร์แมน อยู่เหนือความรู้ของเรา แต่ไม่จำเป็นต้อง "เหนือ" เสมอไป

ตำนานอีกเรื่องหนึ่งที่ได้รับการยอมรับอย่างกว้างขวางแต่ส่วนใหญ่ไม่ได้รับการสนับสนุนเกี่ยวกับการตกเป็นทาสโดยสติปัญญาขั้นสูงก็คือ สติปัญญาที่ใกล้จะไม่มีที่สิ้นสุดสามารถแก้ปัญหาทั้งหมดของเราได้อย่างรวดเร็ว

ผู้เสนอการพัฒนาอย่างรวดเร็วของ AI หลายคนคาดหวังว่า AI จะสร้างความเจริญก้าวหน้า ฉันเรียกความเชื่อใน "การคิด" นี้ (คำนี้แปลโดย Vyacheslav Golovanov - ประมาณ นิวอะเบาท์- แนวทางนี้มีพื้นฐานอยู่บนความเชื่อที่ว่าความก้าวหน้านั้นถูกขัดขวางโดยการคิดหรือสติปัญญาที่ไม่เพียงพอเท่านั้น (ฉันจะสังเกตด้วยว่าความเชื่อใน AI ว่าเป็นยาครอบจักรวาลสำหรับความเจ็บป่วยทั้งหมดนั้นเป็นลักษณะเฉพาะของคนที่ตัวเองชอบคิด)

ลองพิจารณาถึงประเด็นการเอาชนะมะเร็งหรืออายุยืนยาวกันดีกว่า เหล่านี้เป็นปัญหาที่ไม่สามารถแก้ไขได้ด้วยการคิดเพียงอย่างเดียว ไม่มีการคิดมากพอที่จะเข้าใจได้ว่าเซลล์มีอายุมากขึ้นหรือเทโลเมียร์สั้นลงได้อย่างไร ไม่มีสติปัญญาใด ไม่ว่าจะยอดเยี่ยมเพียงใดก็ตาม ก็สามารถเข้าใจวิธีการทำงานของร่างกายมนุษย์ได้ง่ายๆ โดยการอ่านวรรณกรรมทางวิทยาศาสตร์ที่เป็นที่รู้จักทั้งหมดในโลกและวิเคราะห์มัน

Super-AI จะไม่สามารถคิดถึงการทดลองในปัจจุบันและในอดีตทั้งหมดเกี่ยวกับการแยกนิวเคลียสของอะตอมได้ และวันต่อมาก็เกิดสูตรฟิวชั่นแสนสาหัสสำเร็จรูปขึ้นมา การเปลี่ยนจากความเข้าใจผิดมาเป็นความเข้าใจในเรื่องต่างๆ ต้องใช้มากกว่าแค่การคิด

ในความเป็นจริง มีการทดลองมากมาย ซึ่งแต่ละการทดลองให้ข้อมูลที่ขัดแย้งกันมากมาย และต้องมีการทดลองเพิ่มเติมเพื่อสร้างสมมติฐานการทำงานที่ถูกต้อง แค่คิดถึงผลลัพธ์ที่เป็นไปได้ก็ไม่สามารถให้ผลลัพธ์ที่ถูกต้องได้

การคิด (สติปัญญา) เป็นเพียงส่วนหนึ่งของเครื่องมือทางวิทยาศาสตร์เท่านั้น ส่วนใหญ่น่าจะเป็นเพียงส่วนเล็ก ๆ เท่านั้น ตัวอย่างเช่น เราไม่มีข้อมูลเพียงพอที่จะเข้าใกล้การแก้ปัญหาการเสียชีวิตมากขึ้น เมื่อทำงานกับสิ่งมีชีวิต การทดลองเหล่านี้ส่วนใหญ่ต้องใช้เวลา การเผาผลาญของเซลล์ช้าไม่สามารถเร่งได้ ต้องใช้เวลาเป็นปี เดือน หรืออย่างน้อยก็หลายวันจึงจะเห็นผล

หากเราอยากรู้ว่าเกิดอะไรขึ้นกับอนุภาคมูลฐาน แค่คิดถึงพวกมันอย่างเดียวยังไม่พอ เราต้องสร้างแบบจำลองทางฟิสิกส์ที่มีขนาดใหญ่มาก ซับซ้อนมาก และซับซ้อนมากเพื่อที่จะค้นหาคำตอบ แม้ว่านักฟิสิกส์ที่ฉลาดที่สุดจะฉลาดกว่าที่เป็นอยู่ในปัจจุบันเป็นพันเท่า แต่พวกเขาจะไม่เรียนรู้สิ่งใหม่หากไม่มีชนกัน

ไม่ต้องสงสัยเลยว่า super-AI สามารถเร่งการพัฒนาทางวิทยาศาสตร์ได้ เราสามารถสร้างแบบจำลองคอมพิวเตอร์ของอะตอมหรือเซลล์ และเราสามารถเร่งความเร็วได้หลายวิธี แต่มีปัญหาที่ทำให้การจำลองไม่คืบหน้าในทันที

เป็นเรื่องที่ควรค่าแก่การจดจำว่าแบบจำลองและแบบจำลองสามารถตรวจสอบได้เร็วกว่าตัวแบบเพียงเพราะละทิ้งตัวแปรบางตัวไป นี่คือแก่นแท้ของการสร้างแบบจำลอง สิ่งสำคัญที่ควรทราบคือโมเดลดังกล่าวต้องใช้เวลามากในการทดสอบ ศึกษา และตรวจสอบความถูกต้องเพื่อให้แน่ใจว่าโมเดลเหล่านั้นเกี่ยวข้องกับหัวข้อของตน การทดสอบจากประสบการณ์ไม่สามารถเร่งได้

เวอร์ชันที่เรียบง่ายในการจำลองมีประโยชน์ในการค้นหาวิธีที่มีแนวโน้มมากที่สุดในการเร่งความคืบหน้า แต่ในความเป็นจริง ไม่มีอะไรฟุ่มเฟือย ทุกอย่างมีความสำคัญในระดับหนึ่ง - นี่คือคำจำกัดความที่ยิ่งใหญ่ประการหนึ่งของความเป็นจริง เมื่อแบบจำลองและการจำลองมีรายละเอียดมากขึ้นเรื่อยๆ นักวิจัยต้องเผชิญกับความจริงที่ว่าความเป็นจริงดำเนินไปเร็วกว่าการจำลอง 100%

นี่คือคำจำกัดความของความเป็นจริงอีกประการหนึ่ง: เวอร์ชันที่ทำงานเร็วที่สุดของรายละเอียดที่เป็นไปได้ทั้งหมดและระดับความเป็นอิสระ หากคุณสามารถจำลองโมเลกุลทั้งหมดในเซลล์และเซลล์ทั้งหมดในร่างกายมนุษย์ได้ แบบจำลองดังกล่าวจะไม่ทำงานเร็วเท่ากับร่างกายมนุษย์ ไม่ว่าคุณจะออกแบบแบบจำลองดังกล่าวอย่างรอบคอบเพียงใด คุณยังคงต้องใช้เวลาในการทดลอง และไม่สำคัญว่ามันจะเป็นระบบจริงหรือการจำลอง

เพื่อให้มีประโยชน์ ปัญญาประดิษฐ์จะต้องได้รับการแนะนำให้รู้จักกับโลก และในโลกนี้ ก้าวแห่งนวัตกรรมที่จำเป็นกำลังเปลี่ยนแปลงไปอย่างรวดเร็ว หากไม่มีการทดลอง ต้นแบบ ข้อผิดพลาด และการมีส่วนร่วมกับความเป็นจริงในครั้งแรก สติปัญญาสามารถคิดได้ แต่จะไม่ก่อให้เกิดผลลัพธ์ เขาจะไม่ค้นพบใดๆ ในทันที ไม่ว่าจะเป็นวินาทีหรือหนึ่งชั่วโมงหรือหนึ่งปีหลังจากที่เขาถูกเรียกว่า “ฉลาดกว่ามนุษย์”

AI ปรากฏขึ้น แน่นอนว่า อัตราการค้นพบจะเร็วขึ้นเมื่อ AI นี้มีความซับซ้อนมากขึ้น ส่วนหนึ่งเป็นเพราะปัญญาประดิษฐ์จากต่างประเทศจะถามคำถามที่ไม่มีใครถาม แต่แม้แต่สติปัญญาที่ทรงพลังมาก (เมื่อเทียบกับเรา) ก็ไม่รับประกันความก้าวหน้าในทันที การแก้ปัญหาต้องใช้มากกว่าความฉลาด

ปัญหาของโรคมะเร็งและอายุขัยไม่ใช่สิ่งเดียวที่ความฉลาดเพียงอย่างเดียวไม่สามารถแก้ไขได้ ความเข้าใจผิดที่พบบ่อยในหมู่ผู้เสนอความเป็นเอกเทศทางเทคโนโลยีก็คือ ถ้าเราสร้าง AI ที่ฉลาดกว่ามนุษย์ มันจะพัฒนาและสร้าง AI ที่ชาญฉลาดยิ่งขึ้นในทันที

ปัญญาประดิษฐ์ใหม่จะคิดให้ลึกขึ้นและประดิษฐ์สิ่งที่ชาญฉลาดยิ่งขึ้น และต่อๆ ไปจนกว่าจะมีการประดิษฐ์สิ่งที่เหมือนพระเจ้าขึ้นมา ไม่มีหลักฐานว่าการคิดเพียงอย่างเดียวก็เพียงพอที่จะสร้างสติปัญญาระดับใหม่ได้ การใคร่ครวญประเภทนี้ขึ้นอยู่กับศรัทธา

อย่างไรก็ตาม มีหลักฐานมากมายที่แสดงว่าการประดิษฐ์สติปัญญาใหม่ที่มีประสิทธิภาพนั้นไม่เพียงแต่ต้องใช้ความพยายามทางจิตเท่านั้น แต่ยังรวมถึงการทดลอง ข้อมูล คำถามที่ท้าทาย และการลองผิดลองถูกอีกด้วย

ฉันเข้าใจว่าฉันอาจจะผิดพลาด เรายังอยู่ในช่วงเริ่มต้น บางทีเราอาจค้นพบระดับสติปัญญาที่เป็นสากลหรือความไม่มีที่สิ้นสุดของมันในทุกสัมผัส มีความเป็นไปได้ของความเป็นเอกเทศทางเทคโนโลยี เพราะเรารู้น้อยมากว่าความฉลาดและการตระหนักรู้ในตนเองคืออะไร ในความคิดของฉัน ทุกอย่างบ่งชี้ว่าสิ่งนี้ไม่น่าเป็นไปได้ แต่ก็ยังมีโอกาสอยู่

อย่างไรก็ตาม ฉันสนับสนุนเป้าหมายที่กว้างขึ้นของ OpenAI: เราต้องพัฒนา AI ที่เป็นมิตร และหาวิธีให้คุณค่าที่จำลองตัวเองและสอดคล้องกับของเรา

มีความเป็นไปได้ที่ AI เหนือมนุษย์อาจเป็นอันตรายได้ในระยะยาว แต่แนวคิดนี้มีพื้นฐานมาจากหลักฐานที่ไม่สมบูรณ์ และไม่ควรนำมาพิจารณาอย่างจริงจังในด้านวิทยาศาสตร์ การเมือง หรือความก้าวหน้า

ดาวเคราะห์น้อยที่พุ่งชนโลกอาจทำลายเราได้ มีความเป็นไปได้ (มูลนิธิ B612 ยืนยันเรื่องนี้) แต่เราไม่ควรพิจารณาผลลัพธ์ดังกล่าวในเรื่องภาวะโลกร้อน การเดินทางในอวกาศ หรือการวางผังเมือง

หลักฐานที่มีอยู่บ่งชี้ว่ามีแนวโน้มว่า AI จะไม่เหนือมนุษย์ เขาจะมีความคิดใหม่ๆ ที่ไม่สามารถเข้าถึงได้สำหรับมนุษย์ แต่หากไม่มีการประยุกต์ใช้อย่างครอบคลุม เขาจะไม่กลายเป็นพระเจ้าที่จะแก้ปัญหาหลักของเราในทันที

แต่เขาจะกลายเป็นแหล่งสะสมสติปัญญาที่มีความสามารถจำกัด จะทำงานได้ดีกว่าเราในพื้นที่ที่ไม่คุ้นเคย และเราจะสามารถค้นหาวิธีแก้ไขปัญหาทั้งที่มีอยู่และปัญหาใหม่ร่วมกับเรา

ฉันเข้าใจว่าความคิดของ AI เหนือมนุษย์และเหมือนพระเจ้านั้นน่าดึงดูดใจเพียงใด เขาสามารถเป็นซูเปอร์แมนคนใหม่ได้ แต่เช่นเดียวกับซูเปอร์แมน เขาเป็นตัวละครสมมุติ ซูเปอร์แมนอาจมีอยู่ที่ไหนสักแห่งในจักรวาล แต่ก็ไม่น่าเป็นไปได้อย่างยิ่ง อย่างไรก็ตาม ตำนานก็มีประโยชน์ และเมื่อสร้างขึ้นแล้ว ก็จะไม่หายไป

ความคิดเรื่องซูเปอร์แมนจะคงอยู่ตลอดไป แนวคิดเรื่อง AI เหนือมนุษย์และความแปลกประหลาดกำลังเกิดขึ้นในขณะนี้และจะไม่มีวันลืม เราต้องเข้าใจว่ามันเป็นแนวคิดประเภทใด: ศาสนาหรือวิทยาศาสตร์ หากเราสำรวจประเด็นเรื่องสติปัญญา สิ่งประดิษฐ์หรือธรรมชาติ เราต้องเข้าใจอย่างชัดเจนว่าแนวคิดของเราเกี่ยวกับ AI เหนือมนุษย์เป็นเพียงตำนาน

ชนเผ่าต่างๆ บนเกาะไมโครนีเซียที่ห่างไกลได้ติดต่อกับโลกภายนอกเป็นครั้งแรกในช่วงสงครามโลกครั้งที่สอง เหล่าเทพบินมาจากดินแดนอันห่างไกล ลงมาจากสวรรค์บนนกที่มีเสียงดัง นำของขวัญมาให้ และบินจากไปตลอดกาล ลัทธิการกลับมาของเทพเจ้าเหล่านี้และของกำนัลใหม่ๆ แพร่กระจายไปทั่วเกาะ กระทั่งเวลาผ่านไป 50 ปีแล้ว หลายคนยังคงรอคอยการกลับมาของพวกเขา

AI เหนือมนุษย์อาจกลายเป็นลัทธิการขนส่งสินค้าใหม่ของเรา บางทีอีกร้อยปีต่อจากนี้ ผู้คนจะรับรู้เวลาของเราในลักษณะเดียวกัน ราวกับว่าเราเชื่อใน AI เหนือมนุษย์ และรอมานานหลายทศวรรษเพื่อให้มันปรากฏขึ้นทุกนาทีและนำของขวัญที่เกินจินตนาการมาให้เรา

อย่างไรก็ตาม AI ที่ไม่ใช่ยอดมนุษย์นั้นมีอยู่แล้ว เรายังคงมองหาคำจำกัดความใหม่เพื่อทำให้ซับซ้อนขึ้น อย่างไรก็ตาม ในความหมายกว้างๆ จิตใจที่แปลกสำหรับเราคือขอบเขตของความสามารถทางปัญญา การคิด กลไกของการให้เหตุผล การเรียนรู้ และการตระหนักรู้ในตนเอง AI กำลังแพร่กระจายและจะแพร่กระจายต่อไป มันลึกขึ้น มีความหลากหลายมากขึ้น และมีพลังมากขึ้น

ก่อน AI ไม่มีสิ่งประดิษฐ์ใดสามารถเปลี่ยนแปลงโลกได้อย่างสมบูรณ์ ภายในสิ้นศตวรรษที่ 21 ปัญญาประดิษฐ์จะทรงพลังมากจนสามารถเปลี่ยนแปลงทุกสิ่งในชีวิตเราได้

อย่างไรก็ตาม ตำนานของ AI เหนือมนุษย์ที่จะมอบความมั่งคั่งมหาศาลหรือความเป็นทาส (หรือทั้งสองอย่าง) ให้กับเราจะยังคงดำเนินต่อไป อย่างไรก็ตาม มันจะยังคงเป็นตำนาน ซึ่งไม่น่าจะถูกแปลเป็นความจริงได้”



แบ่งปัน: