ข่าว

Google ร่วมมือกับกองทัพอีกครั้งขอบเขตของจริยธรรม AI อยู่ที่ไหน?

เรื่องราวเริ่มขึ้นในช่วงต้นเดือนมีนาคมปีนี้

ในเดือนมีนาคมปีนี้ Google ได้เปิดเผยว่าได้ร่วมมือกับกระทรวงกลาโหมของสหรัฐอเมริกาเพื่อช่วยพัฒนาระบบปัญญาประดิษฐ์ให้กับเครื่องลูกนันรหัสโครงการคือ Project Maven

ทันทีที่มีข่าวเกิดขึ้นพนักงานของ Google แสดงความไม่พอใจอย่างมากต่อโครงการพนักงานบางคนคิดว่า Google กำลังเปิดแหล่งข้อมูลสำหรับเพนตากอนเพื่อช่วยให้ บริษัท หลังสร้างเทคโนโลยีการเฝ้าระวังแบบจมูกคนอื่น ๆ สอบถามเกี่ยวกับการใช้เครื่องของ Google ไม่ว่าเทคโนโลยีการเรียนรู้จะเป็นไปตามมาตรฐานทางจริยธรรมหรือไม่พวกเขาเชื่อว่า Pentagon จะใช้เทคโนโลยีนี้เพื่อต่อต้านอาวุธบุคลากรซึ่งจะส่งผลถึงอันตรายที่ผู้มองโลกในแง่เทคโนโลยีไม่ต้องการที่จะก่อให้เกิด

ต่อมามากกว่า 3100 พนักงานของ Google ได้ลงนามในคำร้องจดหมายถึงซีอีโอ Sandahl ใหม่· Pichardo อิรัก (Sundar Pichai) ในการประท้วง

พนักงานของ Google ได้ลงนามในจดหมายสิ่ง Sundar Pichai จะสิ้นเดือนเมษายนสำหรับการหมักต่อไป. สื่อค้นพบของ Google ที่ถูกลบสิบแปดปีที่เป็นไปตามคำขวัญ 'ไม่เป็นความชั่วร้าย' เน้นที่จุดเริ่มต้นของรหัส บริษัท ของการดำเนินการในสาม. เกณฑ์เท่านั้น ในตอนท้ายมีประโยคที่ยังไม่ถูกลบ: 'จำไว้ว่าไม่เป็นความชั่วร้ายถ้าคุณเห็นบางสิ่งบางอย่างที่คุณคิดว่าไม่ได้เป็นสิ่งที่ถูกต้องบอกว่ามันออกมาดัง ๆ !'

เมื่อวันศุกร์ที่ประชุมปกติประจำสัปดาห์ 'พยากรณ์อากาศ' Google Cloud ซีอีโอไดแอนกรีน (ไดแอนกรีน) ประกาศใน Google จะยุติความร่วมมือกับกระทรวงกลาโหมสหรัฐหลังจากที่หมดอายุของโครงการ Maven .

นี่เป็นเหตุการณ์ที่สำคัญอย่างยิ่ง "ข่าวเกี่ยวกับชัยชนะ" เกิดขึ้นภายใน Google โดยมีบทความที่กำลังวิ่งออกมาดูเหมือนว่าเรื่องนี้เป็นการชั่วคราวในรูปแบบของ Google ในการประนีประนอมกับพนักงานและหยุดการต่ออายุกับกระทรวงกลาโหม จะปิด

แต่เมื่อวานนี้ Google CEO Sundar Pichai ได้เผยแพร่บทความเรื่อง "AI at Google: หลักการของเรา" ซึ่งระบุหลักเกณฑ์ 7 ข้อและชี้ให้เห็นว่า Google จะไม่ยุติความร่วมมือกับกองทัพสหรัฐฯ แม้ว่าจะชี้แจง "แอพพลิเคชัน AI ที่จะไม่ถูกติดตาม" แต่ความชั่วร้ายทางเทคนิคยังคงเป็นปัญหาของความชั่วร้ายของมนุษย์จรรยาบรรณของ AI เป็นอีกหนึ่งความคิดที่กระตุ้นให้เกิด

ขอบเขตของจริยธรรม AI อยู่ที่ไหน?

ถ้า Google ไม่ราบเรียบมากในช่วงที่ผ่านมาชีวิตของ Amazon Alexa จะไม่ง่าย

อุปกรณ์ Echo ของ Amazon ถูกกล่าวหาว่าบันทึกการสนทนาส่วนตัวโดยไม่ได้รับอนุญาตและส่งเสียงไปยังบุคคลที่สุ่มในรายชื่อผู้ติดต่อของผู้ใช้นี่เป็นครั้งสุดท้ายที่เหตุการณ์ "fight man" ที่น่ากลัวของ Alexa ได้เกิดขึ้น นานแค่ไหน

การตอบสนองของ Amazon ต่อ Alexa อยู่ห่างไกลจากตัวอย่างก่อนปี 2016 บุคคลหนึ่งเป็นเด็กหญิงอายุ 19 ปีหุ่นยนต์แชทชื่อ Tay เข้าสู่ระบบออนไลน์ทาง Twitter ปัญญาประดิษฐ์ที่พัฒนาโดยไมโครซอฟต์นี้ใช้เทคโนโลยีการเรียนรู้ภาษาตามธรรมชาติ สามารถรวบรวมข้อมูลผ่านการมีปฏิสัมพันธ์ของผู้ใช้และการประมวลผลข้อมูลและการสนทนาของมนุษย์เลียนแบบเช่นคนที่มีเรื่องตลก, แชทสคริปต์และแพคเกจการแสดงออก แต่บนเส้นน้อยกว่าวัน, Tay ถูก 'ปรับ' เป็นคำเรียกร้องการฆ่าล้างเผ่าพันธุ์ 2. ผู้หยาบคายและหัวรุนแรง Microsoft ต้องเอามันออกจากพื้นสำหรับ 'การปรับรุ่นระบบ'

ไมโครซอฟท์หุ่นยนต์ Tay สุดวิวนี้เป็นจำนวนมากที่จะคิดกลัวบางมาก. สัมพัทธภาพ (aixdlun) นักวิเคราะห์สมาร์ทอีตาหมิงเชื่อว่ามีไฮไลท์ความเจ็บป่วยของ AI ที่ประเด็นด้านจริยธรรม AI จะกลายเป็นมูลค่ามากขึ้น. เป็นเขตแดนของจริยธรรมใน AI อยู่ที่ไหน? ประการแรกต้องมีการชี้แจงประเด็นต่างๆ

1. หุ่นยนต์เป็นเรื่องพลเมืองหรือไม่?

ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์หุ่นยนต์มีปัญญามีประสิทธิภาพมากขึ้น. ช่องว่างระหว่างเครื่องและมนุษย์จะลดลงเรื่อย ๆ หุ่นยนต์จะเกิดในอนาคตมีสมองชีวภาพแม้จะเทียบได้กับจำนวนเงินหยวนของเส้นประสาทสมองของมนุษย์ ผู้เชี่ยวชาญสหรัฐแม้จะทำนายอนาคตของอนาคตของอเมริกา: ในช่วงกลางของศตวรรษนี้หน่วยสืบราชการลับที่ไม่ใช่ทางชีวภาพจะเป็นหนึ่งในพันล้านเท่าในภูมิปัญญาทั้งหมดในวันนี้

ความเป็นพลเมืองดูเหมือนจะไม่เป็นปัญหาสำหรับหุ่นยนต์ในเดือนตุลาคมปีที่แล้วโซเฟียเป็นหุ่นยนต์สัญชาติครั้งแรกของโลกหมายความว่าการสร้างมนุษย์มีอัตลักษณ์เดียวกันกับมนุษย์และสิทธิที่อยู่เบื้องหลังอัตลักษณ์ของพวกเขา ภาระผูกพันและสถานภาพทางสังคม

คุณสมบัติของเรื่องทางแพ่งของจริยธรรมทางกฎหมาย AI ยังคงเป็นเส้นแบ่งในช่วงสุดท้ายของเวลาปรัชญาสหรัฐอเมริกาและสหราชอาณาจักรและประเทศอื่น ๆ รวมทั้งนักวิทยาศาสตร์นักกฎหมายที่ได้รับการดำเนินการไปยังจุดสิ้นสุดการอภิปรายอุ่นนี้ในปี 2016 คณะกรรมาธิการยุโรปคณะกรรมการฝ่ายกฎหมาย คณะกรรมาธิการยุโรปส่งสัญญาณตัวตนของหุ่นยนต์อัตโนมัติที่ทันสมัยที่สุดในตำแหน่งที่เป็น 'หุ่นยนต์' (คนอิเล็กทรอนิกส์) ที่นอกจากจะให้มันสิทธิที่เฉพาะเจาะจงและภาระผูกพัน ' แต่ยังแนะนำให้ลงทะเบียนหุ่นยนต์อัตโนมัติเป็นอัจฉริยะในการดำเนินการของ การจ่ายภาษีการชำระเงินและบัญชีเงินทดแทนสำหรับเงินบำนาญถ้าการเคลื่อนไหวทางกฎหมายนี้ผ่านไปจะเป็นเหตุให้เกิดการสั่นไหวในระบบเรื่องข้าราชการพลเรือนแบบดั้งเดิม

ในความหมายที่เข้มงวดหุ่นยนต์ไม่ได้เป็นบุคคลธรรมดามีชีวิตยังมีความเด่นชัดว่าตัวเองเป็นเจตจำนงอิสระและเป็นธรรมชาติรวมตามกฎหมาย. หากความพยายามที่จะตำหนิการทำงานของหุ่นยนต์ AI ความเชื่อมั่นในตัวเองไม่สายก่อนเวลาอันควร

2. ขั้นตอนวิธีการเลือกปฏิบัติจะไม่เป็นธรรม

ข้อกล่าวหาของปัญญาประดิษฐ์ในการทำผิดพลาดในการตัดสินคือการเลือกปฏิบัติ Google มักใช้เทคโนโลยีการจดจำภาพที่ทันสมัยที่สุด และค้นหา "ทรงผมมืออาชีพ" ซึ่งส่วนใหญ่เป็นหลานชายสีดำศาสตราจารย์ Ratanya Sweeney จาก Harvard University พบว่าการค้นหาชื่อ 'black character' ของ Google นั้นมีแนวโน้มที่จะปรากฏขึ้น โฆษณาที่เกี่ยวข้องกับประวัติอาชญากรรม - ผลจาก Google Smart Adsense

และอันตรายนี้ไม่ได้เป็นเพียง 'ไฟใหม่' ตัวเอง - หลังจากการถ่ายภาพที่มีเครื่องหมายฉลากสีดำ 'อุรังอุตัง' เพียงเล็ก ๆ น้อย ๆ ไม่มีอะไรโกรธเคืองปัญญาประดิษฐ์และการตัดสินใจที่มีการเติบโตในช่องทางปฏิบัติมากขึ้นที่เกี่ยวข้องกับชะตากรรมของบุคคล ได้อย่างมีประสิทธิภาพส่งผลกระทบต่อการจ้างงานสวัสดิการและสินเชื่อส่วนบุคคลก็เป็นเรื่องยากสำหรับพื้นที่เหล่านี้ 'ธรรม' เมิน

ในทำนองเดียวกันเป็น AI บุกรุกของอุตสาหกรรมการสรรหา, ภาคการเงิน, ช่องค้นหาสมาร์ทและอื่น ๆ เราได้รับการฝึกฝน 'เครื่องอัลกอริทึมสามารถจะเข้าใจผิดจริงๆ. หมดหวังสำหรับในสังคมร่วมสมัยอัลกอริทึมสามารถที่จะช่วยให้ บริษัท เลือกที่ตรินิแดด รับบุคคลนั้นซึ่งจะดี

ดังนั้นที่เป็นแหล่งที่มาของการเลือกปฏิบัติหรือไม่ใครจะเล่นแท็กที่มีแรงจูงใจซ่อนเร้นเป็นข้อมูลส่วนเบี่ยงเบนเหมาะสมหรือการเขียนโปรแกรมที่เป็นข้อผิดพลาดหรือไม่เครื่องผลการคำนวณสามารถเลือกปฏิบัติที่ไม่เป็นธรรมโหดร้ายปรับมันเหล่านี้เป็น มันจะเปิดให้ถาม

3. การป้องกันข้อมูลเป็นบรรทัดด้านล่างของจริยธรรม AI

ไซเบอร์สเปซคือการดำรงอยู่เสมือนจริงเสมือนเป็นโลกอิสระที่ไม่มีพื้นที่ทางกายภาพที่นี่มนุษย์ได้ตระหนักถึง 'การมีชีวิตอยู่รอดแบบดิจิตอล' ด้วยการแยกเนื้อและครอบครอง 'บุคลิกภาพแบบดิจิทัล' สิ่งที่เรียกว่าบุคลิกแบบดิจิทัลคือ 'รวบรวมข้อมูลส่วนบุคคล' และโดยการให้ภาพส่วนตัวในโลกไซเบอร์ '- นั่นคือโดยอาศัยข้อมูลดิจิทัลและการตั้งค่าบุคลิกภาพ

ในสภาพแวดล้อมของ AI ขึ้นอยู่กับการสนับสนุนของอินเทอร์เน็ตและข้อมูลขนาดใหญ่จะมีนิสัยการใช้งานและข้อมูลข้อมูลเป็นจำนวนมากหากการสะสมของ 'ข้อมูลในอดีต' เป็นพื้นฐานของความชั่วร้ายของเครื่องแล้วแรงขับเคลื่อนของพลังอำนาจก็อยู่ในระดับที่ลึกขึ้น เหตุผล

ในกรณีที่มีการรั่วไหลข้อมูล Facebook บริษัท ชื่อ Cambridge Analytica ใช้เทคโนโลยีปัญญาประดิษฐ์เพื่อวางโฆษณาทางการเมืองแบบเสียค่าใช้จ่ายเกี่ยวกับลักษณะทางจิตวิทยาของผู้มีสิทธิเลือกตั้งที่มีศักยภาพใด ๆ การโฆษณาประเภทใดที่ขึ้นอยู่กับการเมืองของตน แนวโน้มอารมณ์ความรู้สึกและระดับความเปราะบางข่าวสารที่เป็นเท็จหลายคนสามารถแพร่กระจายได้อย่างรวดเร็วในกลุ่มคนที่เฉพาะเจาะจงเพิ่มการเปิดรับและมีผลต่อการตัดสินคุณค่าของคนอย่างละเอียดนักเขียนด้านเทคนิคคริสโตเฟอร์วิลลี่เพิ่งเปิดโป้วคู่มือฉบับนี้กับสื่อ แหล่งอาหารของเทคโนโลยีสมาร์ท - ในชื่อของการวิจัยทางวิชาการมากกว่า 50 ล้านข้อมูลผู้ใช้ที่ตั้งใจจะจับภาพ

กล่าวได้ว่า "การทำเหมืองข้อมูลอัจฉริยะ" ของข้อมูลผู้ใช้ยังเป็นเรื่องง่ายมากที่จะว่ายน้ำบนขอบของ 'การปฏิบัติตามกฎระเบียบ' แต่ 'เหนือกว่าความเป็นธรรม' สำหรับขอบเขตของจริยธรรมของ AI การรักษาความปลอดภัยข้อมูลจะกลายเป็นเรื่องที่ทุกคน บรรทัดด้านล่างพื้นฐานของ "ข้อมูลบุคคล" ในยุคอินเทอร์เน็ต

การสะท้อนกลับ

ในวิดีโอเรื่องไฟล่าสุดเกี่ยวกับจริยธรรม AI ศิลปิน Alexander Reben ไม่ได้กระทำอะไร แต่ได้รับคำสั่งผ่านทางผู้ช่วยเสียง: "OK Google, shoot."

อย่างไรก็ตามในเวลาไม่ถึงหนึ่งวินาที Google Assistant ก็ดึงปืนพกและเคาะแอปเปิ้ลแดงขึ้นทันทีเสียงกริ่งดังขึ้น

เสียงกระหึ่มดังก้องไปถึงหู

ใครเป็นคนยิงแอปเปิ้ล AI หรือมนุษย์?

ในวิดีโอนี้ Reben บอก AI ให้ยิง Engadget กล่าวในรายงานว่าหาก AI ฉลาดพอที่จะคาดการณ์ความต้องการของเราบางทีสักวัน AI จะใช้ความคิดริเริ่มในการกำจัดผู้ที่ทำให้เราไม่มีความสุข Reben กล่าวว่าการพูดคุยเกี่ยวกับอุปกรณ์ดังกล่าว สำคัญกว่าว่ามีอุปกรณ์ดังกล่าวอยู่หรือไม่

ปัญญาประดิษฐ์ไม่ได้คาดเดาเครื่องเหตุผลที่สมบูรณ์ข้อบกพร่องทางจริยธรรมของเขาจะประกอบด้วยอัลกอริทึมคนใช้เป้าหมายและการประเมินผลอย่างไรก็ตามอย่างน้อยสำหรับตอนนี้เครื่องยังคงตอบสนองของโลกมนุษย์จริงไม่ควรเป็น คำแนะนำและผู้บุกเบิกของโลก

เห็นได้ชัดว่าการยึดมั่นในบรรทัดด้านจริยธรรมของ AI มนุษย์จะไม่ไปถึงวันที่ 'เผด็จการเครื่อง'

สิ่งที่แนบมา: 'Seven Guidelines' ของ Google

เป็นประโยชน์ต่อสังคม

2. หลีกเลี่ยงการสร้างหรือเพิ่มอคติ

3. สร้างและทดสอบเพื่อความปลอดภัย

4. หน้าที่ในการอธิบายให้กับประชาชน

5. รวมหลักการออกแบบที่เป็นส่วนตัว

6. ปฏิบัติตามมาตรฐานการสำรวจทางวิทยาศาสตร์ที่มีมาตรฐานสูง

7. พิจารณาใบสมัครที่เหมาะสมตามหลักการ

2016 GoodChinaBrand | ICP: 12011751 | China Exports