![ภาพ1.png](https://static-lib.s3.amazonaws.com/cms/image1_78ab68323a.png)
OpenAI ได้เผยแพร่บทความบล็อกใหม่เพื่อสร้างความมั่นคงและเป็นประโยชน์ทั่วไปสำหรับปัญญาประดิษฐ์ (AI)
โมเดล GPT-4 ที่ถูกพัฒนาโดย OpenAI เป็นแหล่งกำเนิดของ ChatGPT ซึ่งสามารถเพิ่มประสิทธิภาพในการทำงาน สร้างความคิดสร้างสรรค์ และให้ประสบการณ์การเรียนรู้ที่ปรับแต่งได้
แต่ OpenAI ยอมรับว่าเครื่องมือ AI มีความเสี่ยงที่ตามมาพร้อมกับการใช้งาน จึงต้องมีการดูแลรักษาความปลอดภัยและการใช้งานที่รับผิดชอบ
นี่คือสิ่งที่บริษัทกำลังทำเพื่อลดความเสี่ยงเหล่านั้น
การให้ความปลอดภัยในระบบ AI
OpenAI ได้ดำเนินการทดสอบอย่างละเอียด และขอคำปรึกษาจากผู้เชี่ยวชาญภายนอก และปรับปรุงรูปแบบ AI ด้วยคำติชมจากมนุษย์ก่อนที่จะเปิดเผยระบบใหม่
การเปิดตัว GPT-4, ตัวอย่างเช่น, ได้มีการทดสอบก่อนหน้านั้นมากกว่าหกเดือนเพื่อให้แน่ใจว่ามันปลอดภัยและสอดคล้องกับความต้องการของผู้ใช้
OpenAI เชื่อว่าระบบ AI ที่มีความทนทานควรถูกตรวจสอบความปลอดภัยอย่างพิถีพิถันและสนับสนุนความจำเป็นของการกำหนดกฎหมาย
การเรียนรู้จากการใช้งานในโลกประสาน
การใช้งานในโลกจริงเป็นส่วนสำคัญในการพัฒนาระบบ AI ที่ปลอดภัย โดยการเปิดเผยโมเดลใหม่อย่างระมัดระวังให้กับผู้ใช้ที่มีการขยายตัวเรื่อย ๆ OpenAI สามารถทำการปรับปรุงเพื่อการแก้ไขปัญหาที่ไม่คาดคิด
โดยการเสนอโมเดล AI ผ่าน API และเว็บไซต์ของ OpenAI, OpenAI สามารถตรวจสอบการใช้งานที่ไม่เหมาะสมและดำเนินการที่เหมาะสมได้ และพัฒนานโยบายที่เฉลี่ยความเสี่ยงได้อย่างละเอียด
การปกป้องเด็กและเคารพความเป็นส่วนตัว
OpenAI ให้ความสำคัญกับการปกป้องเด็กๆ โดยจำเป็นต้องมีการตรวจสอบอายุและห้ามใช้เทคโนโลยีของ OpenAI เพื่อสร้างเนื้อหาที่เป็นอันตราย
ความเป็นส่วนตัวเป็นองค์ประกอบสำคัญอีกด้านหนึ่งของงานของ OpenAI
องค์กรใช้ข้อมูลเพื่อทำให้แบบจำลองของมันเป็นประโยชน์มากขึ้นในขณะที่ยังคงปกป้องผู้ใช้
เพิ่มเติมอีก, OpenAI นำข้อมูลส่วนบุคคลออกจากชุดข้อมูลการฝึกและปรับแต่งโมเดลเพื่อปฏิเสธคำขอข้อมูลส่วนบุคคล
OpenAI จะตอบสนองคำขอในการลบข้อมูลส่วนบุคคลออกจากระบบของบริษัท
การปรับปรุงความถูกต้องทางข้อมูล
ความถูกต้องที่เกิดขึ้นจริงเป็นเรื่องสำคัญที่ OpenAI ใส่ใจอย่างมาก GPT-4 มีความน่าเชื่อถือในการสร้างเนื้อหาที่ถูกต้องมากขึ้น ถึง 40% เมื่อเปรียบเทียบกับ GPT-3.5 ที่ผ่านมา.
องค์กรมุ่งมั่นในการแนะนำความรู้ให้แก่ผู้ใช้เกี่ยวกับข้อจำกัดของเครื่องมือ AI และความเป็นไปได้ของความผิดพลาด
การวิจัยและการมีส่วนร่วมต่อเนื่อง
OpenAI เชื่อในความสำคัญของการใช้เวลาและทรัพยากรในการวิจัยเกี่ยวกับเทคนิคในการลดปัญหาและการจับคู่ให้มีประสิทธิภาพ
อย่างไรก็ตาม นั่นไม่ใช่สิ่งที่มันสามารถทำได้อย่างเดียว การแก้ไขปัญหาด้านความปลอดภัยย่อมต้องมีการสอดส่องอย่างถี่ถ้วน การทดลองและการมีส่วนร่วมของผู้เกี่ยวข้อง
OpenAI ยังคงมุ่งมั่นในการสนับสนุนความร่วมมือและการสนทนาเปิดเพื่อสร้างระบบ AI ที่มั่นคงและปลอดภัย
วิจารณ์เกี่ยวกับความเสี่ยงของอุปสรรคที่อยู่อย่างจริงเท่ห์
นอกจากความมุ่งมั่นของ OpenAI ในการรักษาความปลอดภัยและประโยชน์ที่กว้างขวางของระบบ AI ของตัวเอง บทความบล็อกของ OpenAI นี้ก็ได้引起ความคิดเห็นแห่งความไม่เห็นด้วยในโซเชียลมีเดีย
ผู้ใช้งานทวิตเตอร์แสดงความผิดหวัง โดยระบุว่า OpenAI ไม่สามารถปฏิบัติกับความเสี่ยงทางศิวิมัติมิติที่เกี่ยวข้องกับการพัฒนา AI ได้อย่างเหมาะสม
ผู้ใช้งานทวิตเตอร์หนึ่งแสดงความผิดหวังและตักเตือน OpenAI ว่าทางเขาทรยศภารกิจครอบครัวและใส่ใจเพียงแต่การพาเชิญเข้าสู่การค้าขายอย่างไม่รับผิดชอบ
ผู้ใช้แนะนำว่าแนวทางการใช้งานของ OpenAI ในเรื่องความปลอดภัยอาจมีฐานะแบบผิวเผินและมีความกังวลมากกว่าการแก้ไขความเสี่ยงต่อการอยู่รอดที่แท้จริง
นี่คือสิ่งที่น่าผิดหวังมาก เป็นการตกแต่งหน้าต่าง PR ที่ว่างเปล่า
คุณไม่ได้กล่าวถึงความเสี่ยงที่มีอยู่ในทางศักยภาพจาก AI ซึ่งเป็นปัญหาหลักของประชาชน นักเทคโนโลยี นักวิจัย AI และผู้นำอุตสาหกรรม AI รวมถึง CEO ของคุณเองที่ชื่อ @sama @OpenAI กำลังทรยศตัวเอง…
— Geoffrey Miller (@primalpoly) เมษายน 5, 2023
ผู้ใช้คนอื่นก็แสดงความไม่พอใจและยังพูดว่าประกาศนี้ไม่สนใจปัญหาที่มีจริงและยังคงอยู่ในระดับที่ไม่ชัดเจน ผู้ใช้ยังได้เน้นถึงว่ารายงานไม่พูดถึงปัญหาทางจริยธรรมและความเสี่ยงที่เกี่ยวกับการมีความตระหนักด้วยตนเองของ AI และระบุว่าวิธีการของ OpenAI ในการจัดการด้านความปลอดภัยไม่เพียงพอ
เป็นแฟนของ GPT-4 ฉันผิดหวังกับบทความของคุณ
มันถดถอยกับปัญหาจริง ๆ การสืบทอดความคลุมเครือและการละเว้นความสำคัญของแนวคิดจริง ๆ เลยที่เกี่ยวข้องกับความตระหนักของ AI
ฉันยินดีต่อการนวดนวล แต่นี่ไม่ใช่วิธีที่ถูกต้องในการจัดการกับปัญหาด้านความปลอดภัย
— FrankyLabs (@FrankyLabs) 5 เมษายน 2023
วิจารณ์นี้เน้นให้เห็นถึงความกังวลทั่วไปและการโต้วาทีต่อ อันตรายที่เกิดขึ้นจากการพัฒนา AI
ในขณะที่ประกาศของ OpenAI ระบุถึงการมุ่งมั่นในเรื่องความปลอดภัย ความเป็นส่วนตัว และความถูกต้อง สำคัญที่จะรับรู้ถึงความต้องการในการพูดคุยเพิ่มเติมเพื่อจัดการกับปัญหาที่สำคัญมากขึ้น