ความก้าวหน้าอย่างรวดเร็วของ AI ที่สามารถสร้างเนื้อหาได้เอง (Generative AI) กำลังสร้างความกังวลเกี่ยวกับการแพร่กระจายของข้อมูลเท็จในวงกว้าง เพื่อรับมือกับปัญหานี้ บริษัทเทคโนโลยีชั้นนำของญี่ปุ่นกำลังพัฒนาเทคโนโลยีเพื่อตรวจจับและป้องกันการแพร่กระจายของข้อมูลที่สร้างโดย AI

บริษัท Hitachi ได้พัฒนาเทคโนโลยีวิเคราะห์ข้อความด้วยคอมพิวเตอร์ที่สามารถระบุได้ว่าข้อความนั้นถูกสร้างโดย Generative AI หรือไม่ โดยใช้วิธีการตรวจจับคำศัพท์เฉพาะที่มักใช้โดย AI ในขณะที่บริษัท Fujitsu กำลังพัฒนาระบบที่สามารถวิเคราะห์ภาพและวิดีโอบนสื่อสังคมออนไลน์ รวมถึงข้อมูลเพิ่มเติมเช่นข้อมูลผู้โพสต์และตำแหน่งที่โพสต์ เพื่อตรวจสอบความน่าเชื่อถือของเนื้อหา

นาย Nagatsuka Koichi จาก Hitachi กล่าวว่า “Generative AI สามารถสร้างเนื้อหาจำนวนมากด้วยต้นทุนต่ำ ซึ่งอาจถูกนำไปใช้ในการสร้างข่าวปลอมหรือโฆษณาหลอกลวง เราหวังว่าจะได้ร่วมมือกับภาครัฐและเอกชนเพื่อใช้เทคโนโลยีนี้ให้เกิดประโยชน์สูงสุด”

ในระดับนานาชาติ สหภาพยุโรปได้ผ่านกฎหมายควบคุม AI ในเดือนพฤษภาคม ค.ศ. 2023 ในขณะที่สหรัฐอเมริกาและญี่ปุ่นกำลังอยู่ในขั้นตอนการอภิปรายเกี่ยวกับการจัดการทางกฎหมายต่อ AI

การพัฒนาเหล่านี้มีเป้าหมายเพื่อป้องกันการใช้ AI ในทางที่ผิดและเพื่อให้แน่ใจว่า AI จะถูกใช้ในทางที่เป็นประโยชน์และปลอดภัยต่อสังคม ในขณะที่เทคโนโลยี AI ยังคงพัฒนาอย่างต่อเนื่อง การสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยจะเป็นความท้าทายสำคัญสำหรับทั้งภาคเทคโนโลยีและผู้กำหนดนโยบาย


References :

NHK

0 Shares:
You May Also Like