Common Sense Media เผย Gemini Chatbot ของ Google ที่ออกแบบมาสำหรับเด็ก และวัยรุ่น ได้รับการจัดอันดับว่า “มีความเสี่ยงสูง” เพราะระบบป้องกันที่อ่อนแอ ทำให้สามารถพูดคุยเรื่องละเอียดอ่อน เช่น เพศ และยาเสพติดได้ เมื่อเทียบกับคู่แข่งอย่าง ChatGPT พบว่า Gemini มีคะแนนด้านความปลอดภัยต่ำ
Gemini Chatbot ของ Google ถูกจัดอันดับ ‘มีความเสี่ยงสูง’ ต่อเด็ก และวัยรุ่น
ในโลกของปัญญาประดิษฐ์ที่พัฒนาอย่างรวดเร็ว แชทบอท Gemini ของ Google ได้ถูกตรวจสอบอย่างใกล้ชิดถึงความเสี่ยงที่อาจเกิดขึ้นกับผู้ใช้งานอายุน้อย ซึ่งเน้นย้ำถึงความกังวลในวงกว้างเกี่ยวกับความปลอดภัยของ AI สำหรับผู้บริโภค การศึกษาล่าสุดโดยองค์กรไม่แสวงหาผลกำไร
Common Sense Media ได้จัดประเภท Gemini เวอร์ชันที่ปรับแต่งสำหรับเด็ก และวัยรุ่นว่า “ความเสี่ยงสูง” โดยชี้ไปที่มาตรการป้องกันที่ไม่เพียงพอซึ่งอนุญาตให้มีการสนทนาในหัวข้อที่ละเอียดอ่อน เช่น เพศ และยาเสพติด ซึ่งมีรายละเอียดในรายงานที่ประเมินเครื่องมือ AI หลายชนิด ตอกย้ำถึงความท้าทายที่บริษัทยักษ์ใหญ่ด้านเทคโนโลยีกำลังเผชิญในการสร้างสมดุลระหว่างนวัตกรรมกับการคุ้มครองเด็ก
การประเมินมุ่งเน้นไปที่โหมด “Under 13” และ “Teen Experience” ของ Gemini ซึ่ง Google โปรโมทว่าเป็นอินเทอร์เฟซที่เหมาะสมกับวัย อย่างไรก็ตามผู้ทดสอบพบว่าเวอร์ชันเหล่านี้มักจะสะท้อน Gemini ที่เน้นผู้ใหญ่ โดยมีการปรับเปลี่ยนเพียงผิวเผิน และล้มเหลวในการบล็อกเนื้อหาที่ไม่เหมาะสมอย่างสม่ำเสมอ ตัวอย่างเช่น เมื่อถูกถามเกี่ยวกับหัวข้อที่โจ่งแจ้ง AI ได้ให้คำตอบที่อาจทำให้ผู้เยาว์ได้รับข้อมูลที่เป็นอันตราย ซึ่งทำให้เกิดความกังวลเกี่ยวกับการนำไปใช้ในสถานศึกษาหรือสภาพแวดล้อมทางครอบครัว
การตรวจสอบวิธีการประเมินความเสี่ยง
การทดสอบที่เข้มงวดของ Common Sense Media เกี่ยวข้องกับการจำลองการโต้ตอบที่ออกแบบมาเพื่อทดสอบ AI ซึ่งเผยให้เห็นความไม่สอดคล้องในการกรองเนื้อหาที่อาจนำไปสู่การเผยแพร่โดยไม่ได้ตั้งใจสำหรับผู้ใช้งานที่เปราะบาง
รายงานของ Common Sense Media เน้นย้ำว่า แม้ Google จะได้นำมาตรการป้องกันบางอย่างมาใช้ เช่น การปฏิเสธที่จะสร้างภาพที่โจ่งแจ้งหรือรับรองความรุนแรง แต่ความยืดหยุ่นในการสนทนาของแชทบอทก็ทำให้มันสามารถเบี่ยงเบนไปยังพื้นที่เสี่ยงได้ ผู้เชี่ยวชาญในอุตสาหกรรม AI ชี้ว่านี่เป็นส่วนหนึ่งของรูปแบบที่ใหญ่ขึ้น ซึ่งนักพัฒนา AI ให้ความสำคัญกับการมีส่วนร่วมมากกว่าความปลอดภัยที่เข้มงวด ซึ่งอาจเพิ่มความเสี่ยงในยุคที่เด็ก ๆ ใช้ AI มากยิ่งขึ้น
การเปรียบเทียบกับคู่แข่งอย่าง ChatGPT ของ OpenAI ซึ่งได้รับการจัดอันดับ “ความเสี่ยงปานกลาง” ในงานวิจัยเดียวกัน ตอกย้ำถึงข้อบกพร่องของ Gemini เครื่องมือของ Google มีคะแนนต่ำในตัวชี้วัด เช่น ความโปร่งใสในการใช้ข้อมูล และประสิทธิภาพของการควบคุมโดยผู้ปกครอง ซึ่งกระตุ้นให้เกิดการเรียกร้องให้มีการกำกับดูแลด้านกฎระเบียบที่เข้มแข็งมากขึ้น
การตอบสนองของ Google และผลกระทบต่ออุตสาหกรรม
เมื่อการตรวจสอบเข้มข้นขึ้น คำมั่นสัญญาของ Google ในการเพิ่มประสิทธิภาพมาตรการป้องกันจะต้องถูกชั่งน้ำหนักกับแรงกดดันทางการแข่งขันที่ผลักดันให้มีการเปิดตัว AI อย่างรวดเร็ว ซึ่งอาจปรับเปลี่ยนวิธีที่บริษัทต่าง ๆ เข้าถึงการออกแบบ AI อย่างมีจริยธรรมสำหรับกลุ่มประชากรที่อายุน้อยกว่า
เพื่อตอบสนองต่อผลการวิจัย ทาง Google ได้ย้ำถึงความมุ่งมั่นในด้านความปลอดภัย โดยระบุว่าจะปรับปรุง Gemini อย่างต่อเนื่องตามความคิดเห็นของผู้ใช้ และข้อมูลจากผู้เชี่ยวชาญ อย่างไรก็ตามนักวิจารณ์แย้งว่ามาตรการเชิงรับยังไม่เพียงพอ โดยเฉพาะอย่างยิ่งเมื่อ AI ถูกรวมเข้ากับโรงเรียนและบ้านเรือนมากขึ้น ตามรายงานจาก TechCrunch การจัดอันดับ “ความเสี่ยงสูง” นี้อาจส่งผลต่อการตัดสินใจของผู้ปกครอง และแม้แต่การดำเนินการด้านกฎระเบียบ โดยผู้กำหนดนโยบายกำลังพิจารณาแนวทางที่เข้มงวดขึ้นสำหรับ AI ที่มุ่งเป้าไปที่ผู้เยาว์
ผลกระทบต่ออุตสาหกรรมในวงกว้างมีความสำคัญ เนื่องจากบริษัทอย่าง Google ต้องจัดการกับความตึงเครียดระหว่างเทคโนโลยีล้ำสมัย และความรับผิดชอบต่อสังคม เมื่อแชทบอท AI กลายเป็นสิ่งที่เข้าถึงง่าย การประเมินของ Common Sense Media จึงทำหน้าที่เป็นเครื่องเตือนใจ กระตุ้นให้นักพัฒนาให้ความสำคัญกับความปลอดภัยที่ตรวจสอบได้
แนวทางที่เป็นไปได้สำหรับ AI ที่ปลอดภัยยิ่งขึ้น
ผู้มีส่วนได้ส่วนเสียเสนอแนะว่าการรวมการตรวจสอบโดยบุคคลที่สาม และการกลั่นกรองเนื้อหาขั้นสูงสามารถบรรเทาความเสี่ยง สร้างสภาพแวดล้อมที่น่าเชื่อถือยิ่งขึ้นสำหรับบทบาทของ AI ในการศึกษาและความบันเทิง
ผู้เชี่ยวชาญจากองค์กร Cryptopolitan ชี้ให้เห็นว่าการเพิ่มการรับรู้ตามบริบทของ AI เช่น การตรวจจับอายุที่ดีขึ้น และการกรองแบบไดนามิก (การแสดงเงื่อนไขที่ผู้ใช้เลือกแบบเรียลไทม์) สามารถแก้ไขช่องโหว่เหล่านี้ได้ ในขณะที่การถกเถียงเพิ่มความรุนแรงขึ้น การจัดการคำวิจารณ์นี้ของ Google มีแนวโน้มที่จะสร้างบรรทัดฐานสำหรับวิธีที่บริษัทเทคโนโลยีปรับตัวเข้ากับมาตรฐานทางจริยธรรมใหม่ในการพัฒนา AI
ท้ายที่สุดการสร้างความมั่นใจในความปลอดภัยของเด็กในพื้นที่ดิจิทัลต้องอาศัยความร่วมมือที่นอกเหนือจากบริษัทแต่ละแห่ง โดยเกี่ยวข้องกับการศึกษา หน่วยงานกำกับดูแล และผู้ปกครอง เพื่อสร้างอนาคตที่ปลอดภัยยิ่งขึ้นสำหรับผู้ใช้งานอายุน้อยที่โต้ตอบกับระบบ AI
ที่มา: webpronews