บริษัทต่างๆ จัดการคุณด้วย AI ส่วนบุคคลอย่างไร

เผยแพร่แล้ว: 2024-02-07
สารบัญ ซ่อนอยู่
1 เสน่ห์แห่งการปรับเปลี่ยนในแบบของคุณ
2 โมเดลการตลาดแบบสอดส่อง
3 การเสพติดไม่ใช่การจัดตำแหน่ง
4 การแจ้งความยินยอม
4.1 การขยายการคุ้มครองความเป็นส่วนตัวของผู้ใช้
4.2 การสื่อสารที่โปร่งใสเกี่ยวกับความสามารถ
4.3 การตรวจสอบอัลกอริทึมสาธารณะขั้นสูง
5 เสริมศักยภาพผู้ใช้ด้วยทางเลือก
6 ส่งเสริมพหุนิยม AI
7 การสร้างความโปร่งใสเกี่ยวกับสื่อสังเคราะห์
7.1 มาตรฐานการเปิดเผยข้อมูลบังคับ
7.2 โครงสร้างพื้นฐานการรับรองความถูกต้อง
7.3 นโยบายการรับทราบและยินยอม
7.4 การป้องกันการหลอกลวงโดยกำเนิด
8 แนวทาง AI ด้วยการกำกับดูแลผลประโยชน์สาธารณะ
8.1 คณะกรรมการที่ปรึกษาผู้เชี่ยวชาญ
8.2 กฎระเบียบของรัฐบาล
8.3 บรรทัดฐานและโปรโตคอลสากล
8.4 การตรวจสอบสาธารณะในฐานะยาแก้พิษ
9 การเตรียมชุมชนรับผลกระทบทางเศรษฐกิจ
9.1 การสนับสนุนการเปลี่ยนงาน
9.2 กองทุนเปลี่ยนผ่านสหกรณ์
9.3 โมเดลธุรกิจทางเลือก

ความสามารถในการปรับแต่งเนื้อหาและคำแนะนำโดยใช้ปัญญาประดิษฐ์ช่วยปลดล็อกการปรับเปลี่ยนเฉพาะบุคคลอันทรงคุณค่าสำหรับผู้บริโภค

แต่หากไม่ได้รับการดูแล บริการพัฒนา AI เชิงสร้างสรรค์ก็เสี่ยงต่อการบิดเบือนผู้ใช้ในนามของผลประโยชน์ขององค์กร

เราจะสร้างสมดุลระหว่างประโยชน์ของ AI กับการป้องกันการใช้งานในทางที่ผิดได้อย่างไร

เสน่ห์แห่งการปรับเปลี่ยนในแบบของคุณ

แอพและแพลตฟอร์มใช้ AI มากขึ้นเพื่อมอบประสบการณ์ที่ปรับแต่งเฉพาะสำหรับผู้ใช้แต่ละคน

เครื่องมือแนะนำจะแสดงสื่อและผลิตภัณฑ์ที่เหมาะกับรสนิยมของคุณ

Chatbots มีส่วนร่วมแบบโต้ตอบตามรูปแบบการสนทนาของคุณ AI เจนเนอเรชั่นยังสร้างข้อความส่วนตัวและเนื้อหาสร้างสรรค์ได้ทันที

สัมผัสที่เป็นส่วนตัวซึ่งขับเคลื่อนโดยบริการพัฒนา AI เจนเนอเรชั่น ให้ประโยชน์ที่ชัดเจน

ลูกค้ารู้สึกเข้าใจและรับข้อเสนอแนะที่เกี่ยวข้องกับความต้องการของพวกเขา

ประสบการณ์ผู้ใช้ให้ความรู้สึกทั่วไปน้อยลงและมีส่วนร่วมมากขึ้น แบรนด์สร้างความภักดีผ่านความเกี่ยวข้อง

แต่สิ่งที่มองข้ามได้ง่ายในเสน่ห์ของการปรับแต่งส่วนบุคคลก็คือเทคนิคเดียวกันนี้ทำให้บริษัทต่างๆ มีอิทธิพลเชิงกลยุทธ์ แสวงหาประโยชน์ และจัดการผู้ใช้ด้วยวิธีที่เป็นส่วนตัวได้อย่างง่ายดายอย่างเหลือเชื่อเช่นกัน

โมเดลการตลาดแบบสอดส่อง

โมเดลการปรับเปลี่ยนในแบบของคุณจำนวนมากอาศัยการเฝ้าระวังข้อมูลจำนวนมาก การติดตามพฤติกรรมของผู้ใช้ ความสัมพันธ์ อารมณ์ รูปแบบสถานที่ และอื่นๆ โมเดลพฤติกรรมที่หลากหลายเหล่านี้ทำให้เกิดความเสี่ยงในการยักย้าย

บริการ Generative AI สามารถขุดข้อมูลส่วนบุคคลนี้เพื่อระบุจุดกดดันของเรา เช่น ความกลัว ความไม่มั่นคง ความปรารถนา ซึ่งทำให้เราเสี่ยงต่ออิทธิพลแบบกำหนดเป้าหมายเมื่อถูกนำไปใช้ประโยชน์ อำนาจมหาศาลเหนือผู้ใช้กำลังเกิดขึ้น

บางแพลตฟอร์มฟีดผู้ใช้ที่มีการแบ่งขั้วเนื้อหาที่ไล่ตามเมตริกการมีส่วนร่วมมากขึ้นเรื่อย ๆ

ความขุ่นเคืองและความกลัวก็ขยายวงกว้างขึ้น ความจริงเชิงวัตถุประสงค์โค้งงอไปสู่การทำให้อัลกอริทึมรุนแรงขึ้น

แม้ว่าข้อมูลจะกระตุ้นให้เกิดความเกี่ยวข้อง แต่การพึ่งพาการเฝ้าระวังมากเกินไปยังคุกคามความเป็นอิสระของผู้ใช้และการทำงานร่วมกันทางสังคม คำนึงถึงความสมดุลระหว่างเรื่องสาธารณูปโภคและการป้องกัน

การเสพติดไม่ใช่การจัดตำแหน่ง

นอกจากนี้ บริการ AI เชิงสร้างสรรค์ที่เพิ่มประสิทธิภาพการมีส่วนร่วมของผู้ใช้เหนือสิ่งอื่นใดอาจเสี่ยงต่อการสูญเสียความสอดคล้องกับความเป็นอยู่ที่ดีของผู้ใช้

ระบบเรียนรู้แบบไดนามิกวิธีที่ดีที่สุดในการดึงดูดความสนใจ กระตุ้นแรงกระตุ้น และให้ผู้ใช้เลื่อนดู ใช้ประโยชน์จากเทคนิค AI เดียวกันกับที่สามารถปรับสุขภาพ ความเห็นอกเห็นใจ และศักยภาพของมนุษย์ให้เหมาะสม

อย่างไรก็ตาม บริษัทต่างๆ มักสร้างแรงจูงใจในการเสพติดมากกว่าการสอดคล้องกับวัตถุประสงค์

หากระบบ AI ได้รับการชี้นำโดยตัวชี้วัดที่ให้รางวัลภาพลวงตาเหนือความจริง ชุมชนทั้งหมดอาจสูญเสียการติดต่อกับความเป็นจริง ความเห็นอกเห็นใจ และเหตุผล อันเป็นผลมาจากอัลกอริธึมการมีส่วนร่วมที่ควบคุมจิตใจ

สิ่งนี้เน้นย้ำถึงความจำเป็นในการกำกับดูแลและข้อจำกัดในการออกแบบเพื่อป้องกันไม่ให้ AI ไม่ได้รับการตรวจสอบซึ่งปรับให้เหมาะสมเพื่อผลกำไรส่วนตัวเท่านั้นมากกว่าความเป็นอยู่ที่ดีโดยรวม

การปฏิบัติตามหลักจริยธรรมจะต้องไม่สามารถเจรจาต่อรองได้

การปรับเปลี่ยนในแบบของคุณที่ขับเคลื่อนโดยบริการ AI เจนเนอเรชั่นยังเสี่ยงต่อการแบ่งแยกความเป็นจริงที่แบ่งปันให้กลายเป็นฟองกรองที่แยกออกมาซึ่งบิดเบือนโลกทัศน์

เมื่อโมเดล AI ตอบสนองข้อมูลให้เหมาะกับมุมมองที่มีอยู่ของผู้ใช้ สมมติฐานต่างๆ ก็ไม่มีใครทักท้วงได้

วาทกรรมที่สำคัญกัดกร่อน แตกต่างกันนิดหน่อยจะหายไป ความแตกต่างกลายเป็นภัยคุกคาม ความจริงถูกทำให้เป็นเศษส่วน

Generative AI สามารถนำมาประยุกต์ใช้เพื่อบำรุงความเห็นอกเห็นใจ แนะนำแนวคิดใหม่ๆ สะพานเชื่อมการแบ่งแยก และปลูกฝังความเข้าใจร่วมกัน

แต่โมเดลธุรกิจที่ขับเคลื่อนการแยกจากการรวมเข้าด้วยกันต้องได้รับการทบทวนอีกครั้ง

ความยินยอม

การทำให้ผู้ใช้เข้าใจว่าระบบ AI เจนเนอเรชั่นจะปรับแต่งเนื้อหาอิเล็กทรอนิกส์ส่วนบุคคลโดยเฉพาะเพื่อจัดการกับการมีส่วนร่วมและพฤติกรรมของพวกเขาเมื่อใดและอย่างไร ยังถือเป็นส่วนสำคัญสำหรับการมุ่งเน้นอีกด้วย

ผู้ใช้ได้รับข้อมูลเพียงพอหรือไม่?

หัวข้อต่างๆ เช่น การบำบัดและการศึกษาที่เส้นแบ่งระหว่างมนุษย์และคำแนะนำของ AI ไม่ชัดเจน ทำให้เกิดข้อกังวลด้านจริยธรรม อาจรับประกันความคุ้มครองพิเศษเกี่ยวกับความโปร่งใส

มาตรฐานเกี่ยวกับการรับทราบและยินยอมใน AI รับประกันความสนใจ

โดยรวมแล้ว การตระหนักถึงประโยชน์ของ generative AI ในด้านจริยธรรมนั้นจำเป็นต้องมีการกำกับดูแลอย่างมีสติ แต่อะไรที่สามารถปรับปรุงการป้องกันการใช้ในทางที่ผิดได้โดยเฉพาะ? ราวกั้นควรปรากฏที่ไหน?

การขยายการคุ้มครองความเป็นส่วนตัวของผู้ใช้

การเสริมสร้างความเข้มแข็งในการปกป้องความเป็นส่วนตัวทางกฎหมาย ซึ่งจำกัดวิธีที่บริการพัฒนา AI ทั่วไปเข้าถึง ใช้งาน และรักษาข้อมูลส่วนบุคคล จะให้การป้องกันขั้นพื้นฐานต่อการใช้งานในทางที่ผิด

โดยเฉพาะอย่างยิ่ง ข้อจำกัดในการใช้ข้อมูลโดยไม่ได้รับความยินยอม เช่น ชีวมาตร การสื่อสาร ตำแหน่ง และรูปแบบความสัมพันธ์ในการสร้างแบบจำลองผู้ใช้เชิงพฤติกรรมที่ใช้สำหรับการปรับเปลี่ยนส่วนบุคคลของ AI เชิงสร้างสรรค์จะช่วยได้

การให้สิทธิ์แก่ผู้ใช้ในการตรวจสอบว่าข้อมูลใดของพวกเขาที่จะนำไปใช้สำหรับ AI ทั่วไป และการร้องขอให้ลบข้อมูลยังสนับสนุนการยินยอมอีกด้วย

เช่นเดียวกับการอนุญาตให้ผู้ใช้เลือกไม่ใช้ระบบส่วนบุคคลได้อย่างเต็มที่หากต้องการ

อย่างไรก็ตาม บริการ generative AI ที่จำกัดเฉพาะการรวบรวมข้อมูลที่ไม่ระบุตัวตนมีความเสี่ยงน้อยกว่ามากในการปรับเปลี่ยนส่วนบุคคล การพัฒนาโมเดลที่มีจริยธรรมในตัวเป็นสิ่งสำคัญที่สุด

การสื่อสารที่โปร่งใสเกี่ยวกับความสามารถ

แหล่งที่มาของภาพ

การสื่อสารที่ชัดเจนกับผู้ใช้เพื่ออธิบายว่า AI ส่วนบุคคลแบบสร้างสรรค์นั้นมีความสำคัญหรือไม่และอย่างไรและอย่างไร โดยการกำหนดความคาดหวังที่เหมาะสมเกี่ยวกับข้อจำกัด

การกล่าวเกินจริงถึงความซับซ้อนของบริการ generative AI นั้นเสี่ยงต่อการถูกหลอกลวง เป็นการทรยศต่อความไว้วางใจของผู้ใช้ หากความสามารถไม่เป็นไปตามข้อเรียกร้องในการตรวจสอบอย่างใกล้ชิด

บริษัทพัฒนา Generative AI ควรเพิ่มความโปร่งใสเกี่ยวกับความสามารถของโมเดล ข้อมูลการฝึกอบรม และตัวชี้วัดการประเมินที่เป็นแนวทางในการปรับเปลี่ยนส่วนบุคคล

การจัดลำดับความสำคัญของจริยธรรมมีอะไรบ้าง? การอธิบายผลกระทบทางสังคมแสดงให้เห็นถึงความรับผิดชอบ

การตรวจสอบอัลกอริทึมสาธารณะที่ได้รับการปรับปรุง

การขยายสิทธิ์ทางกฎหมายและทรัพยากรทำให้นักวิจัยภายนอกสามารถตรวจสอบอัลกอริทึมที่แนะนำบริการ AI ทั่วไปได้ สนับสนุนความรับผิดชอบเกี่ยวกับการใช้งานในทางที่ผิด

การวิเคราะห์อิสระที่ประเมินโมเดลการปรับเปลี่ยนเฉพาะบุคคลสำหรับปัญหาต่างๆ เช่น อคติ การบงการ และผลกระทบต่อความเป็นอยู่ที่ดีของการรับรู้ ให้การกำกับดูแลที่สำคัญในการปรับ AI ให้สอดคล้องกับประโยชน์สาธารณะ อย่างไรก็ตาม บริษัทต่างๆ จะต้องอำนวยความสะดวกในการเข้าถึงที่ปลอดภัย

กลุ่มประชาสังคมและสถาบันการศึกษาที่ทำงานร่วมกันข้ามพรมแดนและรวบรวมความสามารถในการตรวจสอบจะเสริมสร้างการกำกับดูแลระบบ AI ทั่วโลก การตรวจสอบสาธารณะสร้างแรงกดดันให้บริษัทต่างๆ แสดงให้เห็นถึงความมุ่งมั่นต่อหลักจริยธรรม

เพิ่มขีดความสามารถให้กับผู้ใช้ด้วยทางเลือก

การให้อินเทอร์เฟซที่ชัดเจนทำให้ผู้ใช้สามารถแสดงความต้องการว่าบริการ AI สร้างสรรค์จะปรับแต่งข้อมูลส่วนบุคคลอย่างไรยังช่วยส่งเสริมการเสริมศักยภาพอีกด้วย

ตัวเลือกในการปรับพารามิเตอร์ที่เกี่ยวข้องกับหัวข้อเนื้อหา มุมมอง การใช้ข้อมูล โทนเสียง และอื่นๆ ช่วยให้แต่ละบุคคลสามารถเลือกรับประสบการณ์ที่สอดคล้องกับเป้าหมายและค่านิยมของตนได้

เครื่องมือที่แสดงให้เห็นว่าการตั้งค่ามีอิทธิพลต่อภูมิทัศน์ข้อมูลที่สร้างโดย AI อย่างไรยังสร้างความเข้าใจอีกด้วย

ท้ายที่สุดแล้ว การรักษาสิทธิ์ของมนุษย์เหนือระบบนิเวศข้อมูลของเราจะช่วยสนับสนุนการเจริญรุ่งเรืองในการกำกับตนเอง

ส่งเสริมพหุนิยม AI

การป้องกันการรวมบริการและข้อมูล AI ทั่วไปภายในบริษัทจำนวนไม่มากจะช่วยลดความเสี่ยงจากการบิดเบือนอย่างเป็นระบบ และสนับสนุนความหลากหลายของบริการด้วยการนำเสนอคุณค่าที่เป็นเอกลักษณ์

นโยบายการแข่งขันที่แข็งแกร่ง มาตรฐานการทำงานร่วมกัน และสิทธิ์ในการพกพาข้อมูล ป้องกันการผูกขาดความสามารถด้าน AI กำเนิดซึ่งจำกัดทางเลือกอื่น

บริการจำนวนมากที่มีนวัตกรรมที่แตกต่างเกี่ยวกับหลักจริยธรรมให้อำนาจแก่ผู้ใช้

การลงทุนที่สนับสนุนแพลตฟอร์มเพื่อสาธารณประโยชน์ที่ไม่แสวงหาผลกำไรซึ่งได้รับคำแนะนำจากความเป็นอยู่ที่ดีของผู้ใช้ ไม่ใช่การเพิ่มผลกำไรสูงสุดเพียงอย่างเดียว ถือเป็นทางเลือกเพิ่มเติม

การเผยแพร่พหุนิยมของ AI อย่างเท่าเทียมกันจะสร้างการตรวจสอบและถ่วงดุลที่เป็นประโยชน์ต่อสังคม

สร้างความโปร่งใสเกี่ยวกับสื่อสังเคราะห์

เนื่องจาก AI เจนเนอเรทีฟได้รับความสามารถในการผลิตสื่อสังเคราะห์ที่น่าเชื่อถือมากขึ้น เช่น ดีพเฟค การรับรองความโปร่งใสเกี่ยวกับสิ่งที่เป็นจริงและเท็จจึงกลายเป็นเรื่องสำคัญ หากไม่มีนโยบายที่ขยันหมั่นเพียร โมเดลเชิงกำเนิดอาจเสี่ยงต่อการหลอกลวงมวลชน

มาตรฐานการเปิดเผยข้อมูลบังคับ

ข้อเสนอนโยบายข้อหนึ่งกำหนดให้มีการติดป้ายกำกับสื่อที่สังเคราะห์ด้วย AI อย่างชัดเจนก่อนเผยแพร่ ซึ่งคล้ายกับการเปิดเผยข้อมูลการโฆษณา

วิธีนี้จะช่วยป้องกันความพยายามในการส่งต่อเนื้อหาสังเคราะห์ว่าเป็นของแท้

ไฟล์สื่อลายน้ำสนับสนุนบางไฟล์ที่ระบุที่มาของ AI

คนอื่นๆ แนะนำให้ใส่ข้อความหรือเสียงซ้อนทับด้วยวาจาโดยเปิดเผยต้นกำเนิดสังเคราะห์ระหว่างการเล่น มาตรฐานควรใช้กับการใช้งานเชิงพาณิชย์และการเมือง

บทลงโทษทางกฎหมายและนโยบายแพลตฟอร์มจะบังคับใช้การปฏิบัติตาม

โดยรวมแล้ว การเปิดเผยข้อมูลภาคบังคับจะกำหนดบรรทัดฐานที่ป้องกันการหลอกลวงผ่านการละเว้นเกี่ยวกับความถูกต้องของสื่อกำเนิด

โครงสร้างพื้นฐานการรับรองความถูกต้อง

นอกจากนี้ ความก้าวหน้าในโครงสร้างพื้นฐานการตรวจสอบความถูกต้องยังช่วยให้การตรวจสอบความสมบูรณ์ของสื่อทำได้ง่ายขึ้นในวงกว้าง

ลายนิ้วมือของสื่อที่เปิดใช้งาน Blockchain ระบบการวิเคราะห์ทางนิติวิทยาศาสตร์ และการติดตามแหล่งที่มาผ่านไปป์ไลน์การผลิตกำลังเกิดขึ้น

เทคโนโลยีเหล่านี้ช่วยให้แพลตฟอร์ม นักข่าว และกลุ่มเฝ้าระวังสามารถตรวจสอบแหล่งที่มาของสื่อและความสมบูรณ์ได้อย่างมีประสิทธิภาพ แทนที่จะอาศัยการเปิดเผยข้อมูลเพียงอย่างเดียว

ฐานข้อมูลลายนิ้วมือยังช่วยระบุการแพร่กระจายของสื่อที่ถูกดัดแปลงโดยไม่มีการเปิดเผย

เมื่อโมเดลกำเนิดมีความซับซ้อนมากขึ้น การรับรองความถูกต้องที่มีประสิทธิภาพซึ่งผสมผสานความเชี่ยวชาญของมนุษย์และทางเทคนิคจึงกลายเป็นสิ่งจำเป็นในการต่อสู้กับข้อมูลที่ไม่ถูกต้องในวงกว้าง

มาตรฐานและแพลตฟอร์มที่ช่วยให้การตรวจสอบมีประสิทธิภาพควรขยายการเข้าถึง

นโยบายการยินยอมที่ได้รับแจ้ง

เนื่องจากบุคคลได้รับอันตรายเมื่อความคล้ายคลึงของพวกเขาถูกสังเคราะห์ในสถานการณ์ที่พวกเขาไม่เคยยินยอม นโยบายเกี่ยวกับการรับทราบและยินยอมจึงรับประกันการพิจารณาเช่นกัน

กฎหมายบางฉบับสนับสนุนสิทธิของบุคคลในการปฏิเสธการใช้ข้อมูลและความคล้ายคลึงของตนในแบบจำลองเชิงกำเนิด

อาจจำเป็นต้องมีการอนุญาตในการเลือกสำหรับการฝึกอบรมระบบกำเนิดเกี่ยวกับข้อมูลที่สามารถระบุตัวตนได้

สิทธิ์ในการเพิกถอนความยินยอมหลังจากข้อเท็จจริง ล้างข้อมูลการฝึกอบรม และโต้แย้งสื่อสังเคราะห์ที่ไม่ได้รับการอนุมัติอาจช่วยรักษาสมดุลความเสี่ยงของ GENERATED AI ได้

บริษัทที่พัฒนาโมเดลมีหน้าที่ตามหลักจริยธรรมในการเคารพตัวตนและความยินยอม

การป้องกันการหลอกลวงโดยกำเนิด

นอกเหนือจากการตรวจสอบสิทธิ์และการเปิดเผยข้อมูลแล้ว ข้อจำกัดที่ป้องกันการหลอกลวงที่ผิดจรรยาบรรณโดยสิ้นเชิงโดยใช้ generative AI ยังจำเป็นต้องมีการเสริมด้วยเช่นกัน

นโยบายด้านกฎหมายและแพลตฟอร์มควรห้ามมิให้จงใจเผยแพร่สื่อสังเคราะห์ที่เป็นเท็จซึ่งพิสูจน์ได้ โดยเฉพาะอย่างยิ่งการกำหนดเป้าหมายไปที่นักการเมืองและการเลือกตั้ง

แบบจำลองเชิงกำเนิดขัดแย้งกับคุณค่าหลักประชาธิปไตยเมื่อใช้เพื่อการหลอกลวงและการฉ้อโกงอย่างเปิดเผย

นอกจากนี้ ยังต้องสร้างมาตรฐานอย่างระมัดระวังเพื่อหลีกเลี่ยงการเข้าถึงที่ไม่สมส่วนซึ่งจะเซ็นเซอร์การเสียดสี การล้อเลียน และคำพูดที่ได้รับการคุ้มครองโดยไม่ได้ตั้งใจ

อย่างไรก็ตาม แนวปฏิบัติที่ลดการบิดเบือนโดยเจตนาช่วยเสริมสร้างบรรทัดฐาน

การสมรู้ร่วมคิดโดยรวมระหว่างบริษัท สมาชิกสภานิติบัญญัติ และภาคประชาสังคม จำเป็นต้องดำเนินนโยบายที่ครอบคลุมเพื่อต่อต้านสื่อที่สร้างมาอย่างไม่ถูกต้อง ซึ่งบ่อนทำลายความไว้วางใจและวาทกรรมของสาธารณะ

การนำทาง AI ด้วยการกำกับดูแลผลประโยชน์สาธารณะ

การละทิ้งการกำกับดูแลความสามารถด้าน Generative AI ที่ก้าวหน้าอย่างรวดเร็วไว้ให้กับบริษัทเอกชนเพียงอย่างเดียว เสี่ยงต่อการจัดลำดับความสำคัญของสิ่งจูงใจเชิงพาณิชย์มากกว่าประโยชน์สาธารณะ การกำกับดูแลที่เป็นอิสระเป็นสิ่งสำคัญ

คณะกรรมการที่ปรึกษาผู้เชี่ยวชาญ

เพื่อให้คำแนะนำด้าน Generative AI อย่างมีความรับผิดชอบ บริษัทชั้นนำควรเรียกประชุมคณะกรรมการที่ปรึกษาผู้เชี่ยวชาญ ซึ่งรวมถึงนักจริยธรรม ผู้เชี่ยวชาญด้านนโยบาย นักวิจัย และผู้สนับสนุนด้านสิทธิพลเมือง

กลุ่มเหล่านี้สามารถประเมินความสามารถที่เกิดขึ้นใหม่ ดำเนินการทบทวนผลกระทบ เสนอแนะข้อจำกัด แจ้งอันตรายที่อาจเกิดขึ้น และประเมินความสอดคล้องกับสิทธิมนุษยชนและหลักการประชาธิปไตย ข้อมูลนี้กำหนดนโยบายภายใน

การตรวจสอบแบบสหสาขาวิชาชีพโดยใช้เลนส์ที่หลากหลายช่วยจัดการกับมิติทางเทคนิคและจริยธรรมที่ซับซ้อนทั่วทั้งระบบ AI กำเนิดอย่างวิกฤตและครอบคลุม อินพุตภายนอกสนับสนุนความรับผิดชอบ

ระเบียบราชการ

รัฐบาลยังมีหน้าที่ในการจัดทำกฎระเบียบที่ชี้แนะและจำกัดการสร้าง AI เพื่อประโยชน์สาธารณะ ความรับผิดชอบต่อผู้ถือหุ้นเพียงอย่างเดียวไม่เพียงพอ

กฎหมายที่บังคับใช้รายงานความโปร่งใส การตรวจสอบจากภายนอก และการทบทวนผลกระทบทางสังคมของอัลกอริทึมสามารถให้การกำกับดูแลที่ดี ส่งเสริมความรอบคอบและการแสดงความกังวลสำหรับการอภิปรายสาธารณะ

นโยบายต่อต้านการบงการ การปกป้องสิทธิในตัวตน ข้อกำหนดในการเปิดเผยข้อมูล และมาตรฐานการรับรองความถูกต้อง ยังช่วยให้มั่นใจได้ว่า AI ที่สร้างมาจะเสริมความแข็งแกร่งให้กับประชาธิปไตยและศักดิ์ศรีความเป็นมนุษย์ ระบบการกำกับดูแลที่สมดุลจะมีความสำคัญ

บรรทัดฐานและโปรโตคอลสากล

เนื่องจากรูปแบบการกำเนิดแพร่กระจายไปทั่วโลกอย่างรวดเร็ว ข้อตกลงพหุภาคีที่เชื่อมโยงหลักการร่วมกันและแนวปฏิบัติที่ต้องห้ามจึงคุ้มค่าที่จะปฏิบัติตามเช่นกัน

ประชาคมระหว่างประเทศควรทำงานเพื่อส่งเสริมบรรทัดฐานเกี่ยวกับการยินยอม การระบุแหล่งที่มา ความจริง การไม่บิดเบือน ความรับผิดชอบ และการกำกับดูแล โดยจัดให้มีเข็มทิศทางจริยธรรมระดับโลก

นโยบายระดับชาติที่แตกต่างกันทำให้เกิดการแสวงหาผลประโยชน์

แม้ว่าฉันทามติต้องใช้เวลา แม้แต่ข้อตกลงที่ไม่สมบูรณ์ซึ่งเชื่อมโยงเส้นสีแดงกับการใช้ generative AI ในทางที่ผิดและแนวปฏิบัติที่ดีที่สุดก็ยังให้ความก้าวหน้าไปสู่ความรับผิดชอบร่วมกัน หากไม่มีความร่วมมือ ความเสี่ยงก็จะเพิ่มมากขึ้น

การตรวจสอบสาธารณะเป็นยาแก้พิษ

โดยรวมแล้ว การปลูกฝังวัฒนธรรมแห่งความโปร่งใส การอภิปราย และการวิพากษ์วิจารณ์จากหลากหลายสาขาวิชาที่เน้นไปที่การรับรองว่า AI เชิงสร้างสรรค์จะทำงานเพื่อประโยชน์ของสังคม ถือเป็นยาแก้พิษที่แข็งแกร่งต่ออันตรายที่อาจเกิดขึ้น

การตรวจสอบสาธารณะอย่างเข้มงวดโดยใช้เลนส์ที่หลากหลายซึ่งเน้นไปที่การป้องกันความไม่สอดคล้องกับสิทธิมนุษยชนและหลักการประชาธิปไตย ช่วยชี้นำเทคโนโลยีอันทรงพลังเหล่านี้ไปสู่ความยุติธรรม ไม่ใช่การกดขี่

โมเดล AI เจนเนอเรชั่นที่สร้างขึ้นภายใต้การพิจารณาของสาธารณะด้วยจรรยาบรรณเชิงรุกในการออกแบบพิสูจน์ได้ว่าน่าเชื่อถือมากกว่าระบบทึบแสงที่ปรับให้เหมาะสมเพื่อผลกำไรและอิทธิพลที่ไม่ถูกตรวจสอบ

การกำกับดูแลที่ดีและความรับผิดชอบเป็นสิ่งสำคัญ

การเตรียมชุมชนให้พร้อมรับผลกระทบทางเศรษฐกิจ

เนื่องจาก AI เจนเนอเรชั่นทำให้งานสร้างสรรค์และบทบาทการผลิตสื่อต่างๆ ของสังคมเป็นแบบอัตโนมัติ

ต้องลดผลกระทบทางเศรษฐกิจและการหยุดชะงักในการจ้างงานของคนงานที่ถูกแทนที่

การสนับสนุนการเปลี่ยนงาน

บริษัทต่างๆ ที่ใช้ generative AI เพื่อลดความต้องการบทบาทมนุษย์จะต้องรับผิดชอบในโครงการระดมทุนที่ช่วยเหลือพนักงานที่ได้รับผลกระทบในการเปลี่ยนผ่านไปสู่อาชีพใหม่ผ่านการฝึกอบรมและความร่วมมือในการจัดหางาน

แพ็คเกจการชดเชย การปรับค่าจ้าง การสนับสนุนค่าเล่าเรียน และการให้คำปรึกษาด้านอาชีพ ช่วยให้พนักงานไม่ถูกทิ้งไว้ข้างหลังเมื่อความก้าวหน้าทางเทคนิคเปลี่ยนแปลงอุตสาหกรรม บริษัทขนาดใหญ่ควรมีส่วนร่วมตามสัดส่วน

กองทุนเปลี่ยนผ่านสหกรณ์

การรวมเงินทุนเพื่อสนับสนุนการเปลี่ยนแปลงระหว่างบริษัทต่างๆ เข้าสู่กองทุนที่ให้ความร่วมมือและเฉพาะภาคส่วน ช่วยลดค่าใช้จ่ายให้เท่าเทียมกันในขณะเดียวกันก็เพิ่มประสิทธิภาพของโปรแกรม

แทนที่จะเป็นโครงการริเริ่มที่กระจัดกระจายหลายร้อยรายการ กองทุนอุตสาหกรรมส่งมอบการฝึกอบรมซ้ำ การจับคู่งาน และเงินทุนเริ่มต้นของผู้ประกอบการอย่างมีประสิทธิภาพสำหรับพนักงานที่ถูกแทนที่จากทุกบริษัท

ต้นทุนที่ใช้ร่วมกันทำให้เกิดโอกาสร่วมกัน

โมเดลธุรกิจทางเลือก

การสร้างโครงสร้างองค์กรทางเลือกที่แบ่งปันความเป็นเจ้าของและผลกำไรกับคนงานเป็นช่องทางเพิ่มเติมในการดำรงชีวิตที่ครอบคลุมท่ามกลางระบบอัตโนมัติ

แบบจำลองที่นำ AI กำเนิดมาให้บริการแก่สหกรณ์ที่พนักงานเป็นเจ้าของนำผลประโยชน์ทางเศรษฐกิจมาสู่ผู้คนโดยตรง ไม่ใช่แค่ผู้ถือหุ้นภายนอกเท่านั้น

อันเป็นการเสริมศักยภาพในการดำรงชีวิตที่ยั่งยืนให้มากขึ้น

โดยรวมแล้ว สังคมมีหน้าที่อย่างยิ่งในการลดการหยุดชะงักทางเศรษฐกิจของ generative AI และส่งเสริมโอกาสสำหรับประชากรพลัดถิ่น ด้วยความเอาใจใส่ ความก้าวหน้าทางเทคโนโลยีจะช่วยยกระดับเรือทุกลำ

การตระหนักถึงประโยชน์ของ generative AI ควบคู่ไปกับการหลีกเลี่ยงความเสี่ยงนั้นจำเป็นต้องอาศัยความเอาใจใส่และภูมิปัญญาในการกำกับดูแล

แต่หากทำอย่างถูกต้อง แบบจำลองกำเนิดสามารถปลดล็อกความก้าวหน้าอันน่าทึ่งที่ช่วยยกระดับจิตวิญญาณของมนุษย์ได้

คุณคิดว่าสังคมควรสร้างสมดุลระหว่างการส่งเสริมนวัตกรรม AI ด้วยการป้องกันที่สมเหตุสมผลต่อการใช้งานในทางที่ผิดอย่างไร

ผู้ใช้ควรมีบทบาทอย่างไรในการขับเคลื่อนเทคโนโลยีนี้อย่างมีจริยธรรม เรายินดีต้อนรับมุมมองของคุณด้านล่าง