เกมชวนคิดจาก MIT รถยนต์ไร้คนขับควรพุ่งชนใครเมื่อเกิดเหตุสุดวิสัย
เกมจาก MIT เพื่อเก็บข้อมูลทางศีลธรรมในมุมของมนุษย์ ซึ่งเป็นเหตุการณ์ที่ยากจะตัดสินใจ เพื่อนำไปใช้กับหุ่นยนต์เมื่อต้องตัดสินใจทางศีลธรรมในอนาคต โดยสมมติสถานการณ์ตัวอย่างเป็นรถยนต์ไร้คนขับ เมื่อเหตุสุดวิสัยและสามารถปลิดชีวิตผู้เคราะห์ร้ายได้ รถควรจะพุ่งชนใคร
Moral Machine การตัดสินใจทางศีลธรรมของหุ่นยนต์
เมื่อเทรนด์รถยนต์ไร้คนขับกำลังแพร่หลายสู่ท้องถนนขึ้นเรื่อยๆ พร้อมคำมั่นสัญญาที่จะให้ความปลอดภัยในการขับขี่มากขึ้น แต่อย่างไรก็ตาม เหตุการสุดวิสัยก็เกิดขึ้นได้เสมอ และหากเกิดขึ้นแล้ว รถยนต์ไร้คนขับหรือในอีกแง่หนึ่งคือหุ่นยนต์ มันควรจะฆ่าใครเพื่อให้เป็นที่ “ยอมรับได้” มากที่สุด
มหาวิทยาลัย MIT จึงสร้างเกมขึ้นมาเพื่อเก็บข้อมูลทางศีลธรรมที่ยากจะตัดสินใจเหล่านี้ โดยจะยกสถานการณ์ตัวอย่างในรูปแบบต่างๆ เมื่อรถเกิดเหตุเบรคแตก เช่น รถควรจะพุ่งชนแผงกั้นทางหรือคนข้ามถนนที่ประกอบด้วยเด็ก คนแก่ และแพทย์ หรือรถควรจะพุ่งคนแก่ที่ข้ามถนนในขณะสัญญาณไฟแดงกับเด็กที่ข้ามในขณะสัญญาณให้ข้าม ซึ่งทุกเหตุการณ์ที่ตัดสินใจย่อมปลิดชีวิตของผู้เคราะห์ร้ายที่รถพุ่งไปชนเสมอ
เมื่อเราทำแบบทดสอบเสร็จ จะสามารถดูสถิติคำตอบของคนอื่นเทียบกับตัวเองได้ด้วย และทุกคำตอบจะถูกเก็บเป็นข้อมูลเพื่องานวิจัยเกี่ยวกับจริยธรรมและสังคมของหุ่นยนต์อัตโนมัติ (autonomous machine) ต่อไป
แล้วคุณล่ะ จะเลือกทางไหน? ลองเล่นเกมได้ที่นี่เลย http://moralmachine.mit.edu/
ปัญหาที่เรียกว่า Trolley Problem
เราอาจเจอปัญหานี้ในวิชาจริยธรรม ซึ่งว่าเอาไว้ว่า สมมติมีรถไฟบรรทุกถ่านหินที่กำลังไถลไปตามราง และทางข้างมีคน 5 คนไม่สามารถหนีได้ กับ ในอีกรางหนึ่งคุณก็พบว่ามีอีกคนหนึ่งคนยืนอยู่ คุณผู้ซึ่งสามารถสับรางรถไฟนี้ได้ คุณจะสับให้รถไฟนี้มุ่งหน้าไปหาใคร คุณจะรักษาชีวิตคน 5 คนแล้วฆ่าคน 1 คนหรือไม่
ซึ่งมีงานวิจัยของคุณ Carlos David Navarrete จากมหาวิทยาลัย Michigan State ออกมาแล้วว่า ผู้เข้าร่วมทดสอบ 147 คน มี 133 คน (คิดเป็น 90.5%) เลือกที่จะสับราง (ให้รถไฟมุ่งหน้าไปหาคน 1 คน) แต่อย่างไรก็ตามในจำนวนผู้ทดสอบทั้งหมดก็มีผู้ที่ตกใจ จนอาจเป็นเหตุให้ไม่อาจตัดสินใจทำอะไรสักอย่างอยู่เหมือนกัน
อ้างอิง: MIT: Moral Machine, Popular Science, Medical Express, Wikipedia: Trolley Problem