พนักงาน Google บอกรีบพัฒนา AI เกินไป อาจเกิดข้อผิดพลาดเรื่องจริยธรรมและความปลอดภัยได้

by Chomsu
20 April 2023 - 10:38

ในปี 2021 Google มีการวางแผนว่าจะเพิ่มทีมวิจัยด้านจริยธรรมของ AI มากขึ้นเป็นสองเท่าและจะลงทุนมากขึ้นเพื่อประเมินความเสี่ยงที่อาจจะเกิดขึ้นกับเทคโนโลยี แต่การเปิดตัวของบริษัทคู่แข่งอย่าง OpenAI ในเดือนพฤศจิกายนที่ผ่านมา กลับได้รับความนิยมจากผู้ใช้อย่างมาก ทำให้ Google กลับลำพยายามเร่งรีบพัฒนา Bard แชทบอตให้มีประสิทธิภาพเพื่อให้เท่าทันบริษัทคู่แข่ง

โดยพนักงานที่อยู่ใน Google ได้เล่าว่าการรีบพัฒนา AI ของ Google อาจจะสร้างความไม่รอบคอบ เพราะทีมที่มีหน้าที่รับผิดชอบในเรื่องความปลอดภัยและความเสี่ยงด้านจริยธรรมของผลิตภัณฑ์ใหม่ๆ กลับถูกห้ามไม่ให้ขัดขวางหรือพยายามยุติการพัฒนา AI ของบริษัท

ซึ่งที่ผ่านมา Google ได้พัฒนา AI ด้วยข้อกังวลและระมัดระวังในด้านจริยธรรมที่นำมาใช้กับเทคโนโลยีมาโดยตลอด แต่เมื่อ ChatGPT มีการเปิดตัวและได้รับความนิยมสูง ทางทีมผู้บริหารก็ประกาศสถานการณ์ “Code red” เพื่อแข่งขันและปรับเปลี่ยนความคิดในเรื่องความเสี่ยงของ AI ทันที ทางผู้บริหารของ Google ได้ให้เรียกผลิตภัณฑ์ใหม่ว่า “การทดลอง” ซึ่งจะทำให้ผู้ใช้อาจยอมรับข้อบกพร่องของผลิตภัณฑ์ได้

ช่วงเดือนกุมภาพันธ์ที่ผ่านมาพนักงานที่ได้ทดลองใช้งาน Bard ได้ให้ความเห็นว่า “Bard แย่กว่าที่ไร้ประโยชน์” โปรดอย่าพึ่งเปิดตัว และมีพนักงานคนอื่นเข้ามาเห็นด้วยว่าคำตอบของ AI ที่ยังผิดพลาดเยอะอยู่มาก แต่แล้วทางบริษัทก็ได้เปิดตัวให้ผู้ใช้ส่วนหนึ่งได้ใช้งาน ซึ่งใช้คำระบุว่าเป็น “การทดลอง”

แต่ก็มีพนักงานบางคนที่เห็นตรงข้าม โดนให้เหตุผลว่าเทคโนโลยีควรให้ประชาชนได้ทดลองใช้โดยเร็ว เพื่อให้สามารถปรับปรุงมันให้ดียิ่งขึ้นได้ รวมไปถึงบางคนยังเชื่อว่า Google มีการตรวจสอบผลิตภัณฑ์ได้ดี และ Bard อาจจะปลอดภัยกว่า Chatbot ของบริษัทคู่แข่ง แต่สิ่งที่สำคัญตอนนี้คือการปล่อยผลิตภัณฑ์ออกไปให้ผู้ใช้ได้เร็วที่สุด

ดังนั้น ความคิดเห็นของพนักงานที่เกี่ยวข้องกับด้านจริยธรรมจึงเป็นสิ่งที่ไร้สาระทำให้พนักงานส่วนหนึ่งรู้สึกไร้คุณค่า ไม่ได้รับการสนับสนุนและท้ายที่สุดก็อาจจะทำผลงานได้ดีน้อยลง มีอดีตนักวิทยาศาสตร์และการวิจัยของ Google ได้กล่าวไว้ว่า “ถ้าคุณต้องการอยู่ที่ Google คุณต้องรับใช้ระบบและไม่ขัดแย้งกับมัน”

ที่มา: Bloomberg

Blognone Jobs Premium