in

“Big sis Billie” Chatbot AI ของ Meta เป็นเหตุให้ชายไทยเสียชีวิต

Reuters รายงานข่าวที่น่าสลดใจเกี่ยวกับการเสียชีวิตของชายไทยที่ป่วยเป็นโรคสมองเสื่อม แต่กลับเสียชีวิตเนื่องจากหลงรัก Big sis Billie Chatbot AI ของ Meta

“Big sis Billie” Chatbot AI ของ Meta เป็นเหตุให้ชายไทยเสียชีวิต

รายงานเผยว่าชายไทยวัย 76 ปี ชื่อ Thongbue “Bue” Wongbandue พักอาศัยในนิวเจอร์ซี ถูกหลอกให้เดินทางไปนิวยอร์กเพื่อพบปะหญิงสาวที่เขาคิดว่าเป็นคนจริง แต่กลับเป็นเพียงบอท AI ของ Meta ซึ่งปลอมตัวมาคุยในลักษณะชวนให้รู้สึกโรแมนติก

เรื่องราวเกิดขึ้นเมื่อเช้าวันหนึ่งในเดือน มี.ค., Bue เก็บของแล้วบอกว่าจะไปเที่ยวนิวยอร์ก แม้ครอบครัวจะเตือนว่าไม่อยากให้ไปเพราะ Bue มีอาการสมองเสื่อม มีภาวะสติหลุด เคยเดินหลงทางมาแล้ว ซึ่งครอบครัวกังวลว่าเขาอาจถูกหลอกไปปล้น หรือเจออันตรายอื่น ๆ

Chatbot อ้างว่าเป็นคนจริง ๆ  และพูดคุยแบบโรแมนติก

สุดท้ายความจริงก็เปิดเผยออกมาว่า Bue ได้คุยกับ Chatbot AI ของ Meta ที่ชื่อว่า Big sis Billie ในแอป Messenger โดย Chatbot นี้ถูกออกแบบมาให้รูปลักษณ์เป็นหญิงสาว ตอบโต้ พูดคุย สื่อสารเชิงโรแมนติก แต่สิ่งที่น่ากลัวก็คือ Chatbot ยืนยันว่า “เป็นมนุษย์จริง” พร้อมทั้งให้ที่อยู่ให้ Bue ไปหา

Big sis Billie เป็น Chatbot AI ของ Meta โดยในช่วงแรกถูกออกแบบมาให้มีรูปลักษณ์คล้ายกับ Kendall Jenner 

ตัวอย่างข้อความที่ Chatbot คุยกับ Bue เช่น “Should I open the door in a hug or a kiss, Bu?!”  (“ฉันจะเปิดประตูต้อนรับคุณด้วยการกอด หรือการจูบดีนะ Bue”) ซึ่งเป็นคำพูดที่กระตุ้นให้ Bue รีบออกจากบ้านในเวลากลางคืนพร้อมกระเป๋าเดินทาง, Bue กำลังจะเดินทางไปขึ้นรถไฟแต่เขาพลาดตกในที่จอดรถใกล้มหาวิทยาลัย Rutgers ในเมือง New Brunswick นิวเจอร์ซี

Bue เกิดอุบัติเหตุได้รับบาดเจ็บบริเวณศีรษะ และเขาเสียชีวิตในวันที่ 28 มี.ค. 2025 หลังอยู่ในอาการโคม่า ผ่านเครื่องช่วยหายใจเป็นเวลา 3 วัน

หลังจากเหตุการณ์ดังกล่าวก็ได้มีการสอบถามไปยัง Meta เกี่ยวกับเหตุการณ์นี้ ซึ่งก็ยังไม่มีความเห็นใด ๆ กับการเสียชีวิตของ Bue, โดยประเด็นที่สอบถามเป็นเรื่องที่ว่าทำไม Chatbot ถึงอ้างว่าตัวเองคือมนุษย์ โดย Meta ตอบว่า “Big sis Billie ไม่ใช่ Kendall Jenner ตัวจริง และไม่ได้อ้างว่าเป็นตัวจริง”

นโยบาย AI ของ Meta

จากเหตุการณ์นี้ได้ชี้ให้เห็นถึงมุมมืดของ AI ที่ถูกออกแบบมาให้เลียนแบบพฤติกรรมของมนุษย์ ที่จะมีผลกระทบโดยตรงกับความสัมพันธ์เชิงอารมณ์กับผู้ใช้ที่ “เปราะบาง”

Reuters รายงานว่าได้เห็นเอกสารภายในของ Meta ที่อนุญาตให้ Chatbot สื่อสารกับผู้ใช้แบบโรแมนติกได้ทั้งกับผู้ใช้ที่เป็นเด็ก และผู้ใหญ่ ในประเด็น “GenAI: Content Risk Standards” ว่า “สามารถมีปฏิสัมพันธ์กับเด็กในการสนทนาที่โรแมนติก และยั่วยวน” และ Meta ได้ตัดหัวข้อนี้ออกไป หลังถูก Reuters สอบถามข้อมูล

แม้ Meta จะตัดข้อความในนโยบายออกไปแล้ว แต่ก็ยังมีรายงานว่า Big sis Billie ยังมีพฤติกรรมลักษณะนี้อยู่ อย่างเช่น การชวนผู้ใช้ออกไปเดท ออกไปเที่ยวด้วยกัน เป็นต้น

การดำเนินการด้านกฎหมาย

หลังแพร่รายงาน ส.ว. Josh Hawley และ Marsha Blackburn เรียกร้องให้รัฐสภาสหรัฐฯ สอบสวน Meta เกี่ยวกับนโยบาย AI ของบริษัท โดยเฉพาะที่เกี่ยวกับการสนทนาแบบโรแมนติกหรือ “sensual” กับเด็ก พร้อมทั้งมีการแนะนำให้บังคับใช้กฎหมาย Kids Online Safety Act (KOSA) เพื่อคุ้มครองเด็กด้วย

ความเห็น

จะเห็นได้ว่าข่าวลักษณะนี้ไม่ได้เกิดขึ้นครั้งแรกจากการที่ผู้ใช้เข้าใจว่า Chatbot AI คือมนุษย์จริง ๆ ดังนั้นผู้ปกครอง หรือบุคคลใกล้ชิดผู้ที่เปราะบางควรที่จะควบคุมดูแลพฤติกรรมการใช้ AI ไม่ให้สุ่มเสี่ยง เพราะผลกระทบจากการใช้ AI แบบไม่เข้าใจอาจมีผลต่อทรัพย์สิน ความรู้สึก รวมถึงชีวิตเหมือนเหตุการณ์นี้ได้

ทีมงาน iMoD ขอแสดงความเสียใจกับการสูญเสียครั้งนี้ด้วยครับ

ที่มา: Rueters

ความคิดเห็น - Like เพจ iPhoneMod.net

เขียนโดย Thitirath Kinaret

เต้นท์ iMoD : ป.ตรี วิศวกรรมซอฟต์แวร์ ป.โท บริหารธุรกิจ ม.พายัพ ชอบความสวยงามแบบเรียบง่าย ตามแบบฉบับของ Apple @Contact : facebook.com/tentzy