nstagram ได้เปิดตัวเทคโนโลยีใหม่เพื่อจดจำเนื้อหาการทำร้ายตัวเองและการฆ่าตัวตายบนแอปในสหราชอาณาจักรและยุโรป เครื่องมือใหม่นี้สามารถระบุทั้งรูปภาพและคำที่ละเมิดกฎของโพสต์ที่เป็นอันตราย จะทำให้โพสต์ปรากฏน้อยลงในแอปและในกรณีที่รุนแรงจะลบโพสต์โดยอัตโนมัติFacebook ซึ่งเป็นเจ้าของ Instagram กล่าวว่านี่เป็น “ก้าวสำคัญ” แต่ บริษัท ต้องการทำ “มากกว่านั้น”
หัวหน้า Instagram อดัม Mosseri รายละเอียดระบบใหม่ซึ่งใช้ปัญญาประดิษฐ์ในบล็อกโพสต์บนเว็บไซต์ของตน
การอ้างอิงจากมนุษย์
เทคโนโลยีนี้มีอยู่แล้วนอกยุโรปบน Facebook และ Instagram
โพสต์ที่ระบุว่าเป็นอันตรายโดยอัลกอริทึมสามารถอ้างถึงผู้ดูแลที่เป็นมนุษย์ซึ่งเลือกว่าจะดำเนินการเพิ่มเติมหรือไม่รวมถึงสั่งให้ผู้ใช้ช่วยเหลือองค์กรและแจ้งบริการฉุกเฉิน
แต่อินสตาแกรมบอกกับสำนักข่าวสมาคมสื่อมวลชนแห่งสหราชอาณาจักรว่าปัจจุบันการอ้างอิงจากมนุษย์ไม่ได้เป็นส่วนหนึ่งของเครื่องมือใหม่ในสหราชอาณาจักรและยุโรปเนื่องจากการพิจารณาความเป็นส่วนตัวของข้อมูลที่เชื่อมโยงกับกฎระเบียบการคุ้มครองข้อมูลทั่วไป (GDPR)
บริษัท โซเชียลมีเดียกล่าวว่าการใช้กระบวนการอ้างอิงจะเป็นขั้นตอนต่อไป
“ในสหภาพยุโรปในขณะนี้เราสามารถใช้การผสมผสานระหว่างเทคโนโลยีที่ซับซ้อนและองค์ประกอบการตรวจสอบจากมนุษย์ได้ก็ต่อเมื่อมีการรายงานโพสต์ถึงเราโดยตรงโดยสมาชิกในชุมชน” Tara Hopkins ผู้อำนวยการด้านนโยบายสาธารณะของ Instagram ในยุโรปกล่าว
เธอเสริมว่าเนื่องจากในบางกรณีผู้ตรวจสอบที่เป็นมนุษย์จะตัดสินว่าจะส่งทรัพยากรเพิ่มเติมให้กับผู้ใช้หรือไม่หน่วยงานกำกับดูแลอาจพิจารณาให้เป็น “การประเมินสุขภาพจิต” จึงเป็นส่วนหนึ่งของหมวดหมู่พิเศษ ข้อมูลซึ่งได้รับความคุ้มครองมากขึ้นภายใต้ GDPR
Facebook และ Instagram ถูกไฟไหม้ในช่วงไม่กี่ปีที่ผ่านมาเนื่องจากขาดกฎระเบียบเกี่ยวกับการฆ่าตัวตายและเนื้อหาที่ทำร้ายตัวเอง
ความกลัวเกี่ยวกับผลกระทบของเนื้อหานี้ที่มีต่อเยาวชนและผู้ที่มีความเสี่ยงสูงขึ้นนับตั้งแต่การฆ่าตัวตายของเด็กนักเรียนมอลลี่รัสเซลอายุ 14 ปี
เอียนพ่อของมอลลีเคยกล่าวว่า “อัลกอริทึมเร่งด่วน” ของโซเชียลมีเดีย “ช่วยฆ่าลูกสาวของฉัน”
ในเดือนกันยายน บริษัท โซเชียลมีเดียรวมถึง Facebook, Instagram, Google, YouTube, Twitter และ Pinterest ตกลงตามแนวทางที่เผยแพร่โดย Samaritans องค์กรการกุศลด้านสุขภาพจิตเพื่อพยายามกำหนดมาตรฐานอุตสาหกรรมในประเด็น
“แม้ว่าเราจะได้เห็นขั้นตอนเชิงบวกหลายอย่างในทิศทางที่ถูกต้องในช่วงไม่กี่เดือนที่ผ่านมา แต่เรารู้ว่ายังมีงานอีกมากที่ต้องทำเพื่อจัดการกับเนื้อหาออนไลน์ที่เป็นอันตราย” ลิเดียเกรซผู้จัดการโปรแกรมของสะมาริตันส์กล่าวสำหรับอันตรายทางออนไลน์ .
“เราต้องการกฎระเบียบเพื่อให้แน่ใจว่าแพลตฟอร์มเทคโนโลยีดำเนินการอย่างรวดเร็วเพื่อลบเนื้อหาที่เป็นอันตรายและพวกเขาสามารถใช้เครื่องมือในการกำจัดเพื่อดำเนินการนี้ได้ในขณะเดียวกันก็ดูแลให้ผู้ใช้ที่มีช่องโหว่สามารถเข้าถึงเนื้อหาที่สนับสนุนได้เมื่อต้องการ
“โปรแกรม Online Excellence ของเรามีจุดมุ่งหมายเพื่อพัฒนาศูนย์กลางความเป็นเลิศด้านการป้องกันการฆ่าตัวตายและสภาพแวดล้อมออนไลน์ด้วยเหตุนี้เราเพิ่งเปิดตัวแนวทางใหม่สำหรับอุตสาหกรรมเทคโนโลยีเพื่อช่วยไซต์และแพลตฟอร์มในการสร้างพื้นที่ออนไลน์ที่ปลอดภัยยิ่งขึ้นโดยลดการเข้าถึงที่อาจเกิดขึ้น เนื้อหาที่เป็นอันตรายเกี่ยวกับการทำร้ายตัวเองและการฆ่าตัวตายและเพิ่มโอกาสในการสนับสนุนสูงสุด ”
แต่อินสตาแกรมกล่าวว่ายังต้องการเป็นสถานที่ที่ผู้ใช้สามารถยอมรับได้ว่าพวกเขาคิดว่าทำร้ายตัวเองหรือฆ่าตัวตาย
“ เป็นเรื่องปกติที่จะยอมรับและเราต้องการให้มีพื้นที่บน Instagram และ Facebook สำหรับการเข้าชมนั้น” Ms Hopkins กล่าวเสริม
“เราได้รับคำบอกเล่าจากผู้เชี่ยวชาญว่าสามารถช่วยชี้ชะตาปัญหาเกี่ยวกับการฆ่าตัวตายได้เป็นการกระทำที่สมดุลและเรากำลังพยายามไปยังจุดที่เหมาะสมซึ่งเราสามารถจัดหาแพลตฟอร์มประเภทนั้นในพื้นที่นั้นได้ในขณะเดียวกันก็รักษาผู้คน ปลอดภัยจากการเห็นเนื้อหาประเภทนี้หากมีช่องโหว่ ”
นี่เป็นการก้าวไปข้างหน้า แต่คนใน Instagram คนหนึ่งยอมรับกับฉันว่ามันเป็นเพียง “ความก้าวหน้าที่ จำกัด ”
มีอะไรเปลี่ยนแปลงไปบ้าง?
ก่อนหน้านี้ในสหภาพยุโรปอัลกอริธึมที่ซับซ้อนของ Instagram สามารถตามล่าหารูปภาพได้เท่านั้นตอนนี้พวกเขาสามารถลากทั้งรูปภาพและข้อความได้
นั่นสำคัญมากเพราะภาพที่ดูเหมือนไร้เดียงสาอาจมาพร้อมกับคำพูดที่ละเมิดหลักเกณฑ์
เมื่อพบโพสต์เหล่านั้นจะถูกผลักออกจากคุณลักษณะ “สำรวจ” ทำให้ยากขึ้น แต่หาไม่เจอ
นอกจากนี้ยังหมายความว่าโพสต์ที่เลวร้ายที่สุดจะถูกลบโดยอัตโนมัติหลังจาก 24 ชั่วโมง
แต่ความจริงก็คือแม้หลังจากการเปลี่ยนแปลงเหล่านี้ผู้ใช้ในสหภาพยุโรปจะไม่ได้รับการปกป้องจากเนื้อหาที่เป็นอันตรายในลักษณะเดียวกับผู้ใช้ในส่วนอื่น ๆ ของโลก
อัลกอริทึมที่วิเคราะห์โพสต์นอกสหภาพยุโรปจะส่งผู้ต้องสงสัยไปยังผู้ดูแลที่เป็นมนุษย์โดยอัตโนมัติเพื่อการตัดสินใจขั้นสุดท้าย ภายในสหภาพยุโรปที่ยังคงไม่เกิดขึ้น
นั่นเป็นเพราะ European Data Regulators กังวลเกี่ยวกับความสามารถของ Instagram ในการเคารพกฎเกี่ยวกับความเป็นส่วนตัว
นอกเหนือจากความเป็นส่วนตัวแล้ว Instagram ทั่วโลกยังคงดิ้นรนกับการปรับสมดุลที่ซับซ้อน
อนุญาตให้กลุ่มสนับสนุนและผู้ที่อยู่ในช่วงพักฟื้นโพสต์เกี่ยวกับการทำร้ายตัวเองและการฆ่าตัวตายได้อย่างไร
ในขณะเดียวกันก็ปกป้องผู้ใช้ที่เปราะบางที่สุด – หลายคนเป็นเด็ก