AI لاءِ هڪ ذهين طريقي سان ڪيئن ڪٽجي ٿو تعصب واري ڊيٽا سيٽن تي

باصلاحيت ڊيٽا سيٽ ۽ اخلاقي AI

AI-طاقتور حلن کي اثرائتو ٿيڻ لاءِ ڊيٽا سيٽ جي ضرورت آهي. ۽ انھن ڊيٽا سيٽ جي creationاھڻ ھڪڙي منظم سطح تي ھڪڙي غير جانبدار مسئلي سان ريل آھي. سڀئي ماڻهو تعصب کان متاثر آهن (ٻئي باشعور ۽ بي شعور). تعصب ڪنهن به شڪل ۾ وٺي سگھي ٿو: جاگرافيائي، لساني، سماجي-اقتصادي، جنس پرست، ۽ نسل پرست. ۽ اھي سسٽماتي تعصب ڊيٽا ۾ پڪل آھن ، جنھن جي نتيجي ۾ AI پراڊڪٽس ٿي سگھن ٿيون جيڪي تعصب کي دائمي ۽ وائينديون. تنظيمن کي ڊيٽا سيٽن ۾ تعصب جي خلاف گھٽائڻ لاءِ هڪ ذهين طريقي جي ضرورت آهي.

مثال جيڪي تعصب جي مسئلي کي بيان ڪن ٿا

هن ڊيٽا جو هڪ قابل ذڪر مثال تعصب سيٽ ڪيو جنهن وقت تي تمام گهڻو منفي پريس حاصل ڪيو هو هڪ ٻيهر شروع پڙهڻ جو حل جيڪو مرد اميدوارن کي عورتن جي مٿان پسند ڪيو. اهو ئي سبب آهي ته ڀرتي واري اوزار جي ڊيٽا سيٽ کي ترقي ڪئي وئي هئي ريزوم استعمال ڪندي گذريل ڏهاڪي کان جڏهن درخواست ڏيندڙن جي اڪثريت مرد هئي. ڊيٽا باصلاحيت هئي ۽ نتيجن کي ظاهر ڪري ٿو ته تعصب. 

Anotherيو وڏي پيماني تي exampleايو ويو مثال: سالياني گوگل I/O ڊولپر ڪانفرنس ۾ ، گوگل شيئر ڪيو ھڪڙو مشاهدو AI طاقتور ڊرماتولوجي اسسٽنٽ ٽول جيڪو ماڻھن کي سمجھڻ ۾ مدد ڪري ٿو ته انھن جي چمڙي ، وارن ۽ ناخن سان لا issuesاپيل مسئلن سان ا ٿي رھيو آھي. ڊرماتولوجي اسسٽنٽ ان ڳالهه تي زور ڏئي ٿو ته AI صحت جي سارسنڀال ۾ مدد لاءِ ڪيئن ترقي ڪري رهيو آهي - پر هن تنقيد جي نتيجي ۾ AI ۾ تعصب جي صلاحيت کي پڻ اجاگر ڪيو ته اهو اوزار رنگ وارن ماڻهن لاءِ مناسب ناهي.

جڏهن گوگل اوزار جو اعلان ڪيو، ڪمپني نوٽ ڪيو:

انهي ڳالهه کي يقيني بڻائڻ لاءِ ته اسان سڀني لاءِ تعمير ڪري رهيا آهيون، اسان جو ماڊل عمر، جنس، نسل ۽ چمڙي جي قسمن جهڙوڪ فڪٽرن جو حساب رکي ٿو - پيلي چمڙي کان وٺي جيڪا ڳاڙهي رنگ تائين نه ٿي ٿئي جيڪا تمام گهٽ جلي ٿي.

گوگل، عام چمڙي جي حالتن جا جواب ڳولڻ ۾ مدد لاءِ AI استعمال ڪندي

پر وائيس ۾ هڪ مضمون چيو ته گوگل هڪ جامع ڊيٽا سيٽ استعمال ڪرڻ ۾ ناڪام ٿيو:

ڪم کي مڪمل ڪرڻ لاء، محقق ٻن رياستن ۾ واقع 64,837 مريضن جي 12,399 تصويرن جي تربيتي ڊيٽا سيٽ استعمال ڪيو. پر ھزارين چمڙيءَ جي حالتن مان جيڪي تصوير ۾ ڏنا ويا آھن ، ر 3.5و 90 سيڪڙو مريضن وٽان آيا آھن Fitzpatrick جلد جي قسمن V ۽ VI سان ، جيڪي ظاھر ڪن ٿا بھوري جلد ۽ brownاڙھي brownوري يا ڪاري جلد جي. مطالعي جي مطابق، ڊيٽابيس جو XNUMX سيڪڙو ماڻهن تي مشتمل هئي جيڪي صاف چمڙي، ڪارو اڇا چمڙي، يا هلڪي ناسي چمڙي سان. تعصب واري نموني جي نتيجي ۾، ڊرماتولوجسٽ چون ٿا ته ايپ ختم ٿي سگهي ٿي انهن ماڻهن جي مٿان يا گهٽ تشخيص ڪندڙ جيڪي اڇا نه آهن.

وائيس، گوگل جي نئين ڊرماتولوجي ايپ انهن ماڻهن لاءِ نه ٺاهي وئي هئي جن جي چمڙي ڳاڙهي آهي

گوگل جواب ڏيندي چيو ته اهو ٽول کي بهتر بڻائي ڇڏيندو ان کي رسمي طور تي جاري ڪرڻ کان اڳ:

اسان جو AI-طاقتور ڊرماتولوجي مدد وارو اوزار ٽن سالن کان وڌيڪ تحقيق جو نتيجو آهي. جڏهن کان اسان جو ڪم نيچر ميڊيسن ۾ نمايان ٿيو آهي، اسان پنهنجي ٽيڪنالاجي کي ترقي ۽ سڌارڻ جاري رکيو آهي اضافي ڊيٽا سيٽن جي شموليت سان جنهن ۾ هزارين ماڻهن پاران عطيو ڪيل ڊيٽا، ۽ لکن کان وڌيڪ ٺاهيل چمڙي جون تصويرون شامل آهن.

گوگل، عام چمڙي جي حالتن جا جواب ڳولڻ ۾ مدد لاءِ AI استعمال ڪندي

جيترو اسان اميد ڪري سگھون ٿا AI ۽ مشين لرننگ پروگرام درست ڪري سگھن ٿا انھن تعصبن لاءِ ، حقيقت رھي ٿي: اھي ر asو آھن جوابي جيئن سندن ڊيٽا سيٽ صاف آهن. پراڻي پروگرامنگ ايڊج کي تازه ڪاري ۾ ڪچرو اندر/ ڪچرو ٻاهر ڪڍڻ، AI حل صرف ايترو مضبوط آهن جيترو انهن جي ڊيٽا سيٽ جي معيار کي حاصل ڪرڻ کان. بغير ڪنهن اصلاح جي پروگرامرن کان ، اهي ڊيٽا سيٽ نه آهن پس منظر جو تجربو پاڻ کي درست ڪرڻ لاءِ - جيئن ته انهن وٽ ر simplyو otherيو ڪو فريم آف ريفرنس ناهي.

بلڊنگ ڊيٽا سيٽ ذميوار طور تي سڀني جي بنياد تي آهي اخلاقي مصنوعي ذهانت. ۽ ماڻھو آھن بنيادي طور تي حل جو. 

Mindful AI Ethical AI آھي

تعصب ڪنهن خلا ۾ نٿو ٿئي. غير اخلاقي يا باصلاحيت ڊيٽا سيٽ ترقي جي مرحلي دوران غلط طريقي سان کڻڻ کان ايندا آهن. تعصب جي غلطين کي منهن ڏيڻ جو طريقو اهو آهي ته هڪ ذميوار، انساني مرڪز، انداز اختيار ڪيو وڃي جنهن کي صنعت ۾ ڪيترائي سڏي رهيا آهن Mindful AI. Mindful AI ۾ ٽي نازڪ جزا آھن:

1. دماغي AI انساني مرڪز آهي

AI منصوبي جي شروعات کان وٺي، منصوبابندي جي مرحلن ۾، ماڻهن جي ضرورتن کي هر فيصلي جي مرڪز ۾ هجڻ گهرجي. ۽ ان جو مطلب آهي سڀ ماڻهو - نه صرف هڪ سبسٽ. اهو ئي سبب آهي ته ڊولپرز کي عالمي سطح تي ٻڌل ماڻهن جي متنوع ٽيم تي ڀروسو ڪرڻ جي ضرورت آهي AI ايپليڪيشنن کي تربيت ڏيڻ لاءِ شامل ۽ تعصب کان پاڪ.

هڪ عالمي، متنوع ٽيم مان ڊيٽا سيٽن کي گڏ ڪرڻ کي يقيني بڻائي ٿو ته تعصب جي نشاندهي ڪئي وئي آهي ۽ جلدي فلٽر ڪيو وڃي. مختلف نسلن، عمر گروپن، جنس، تعليم جي سطح، سماجي-اقتصادي پس منظر، ۽ جڳهون وڌيڪ آساني سان ڊيٽا سيٽ کي ڳولي سگھن ٿيون جيڪي قدرن جي ھڪڙي سيٽ کي ٻئي تي پسند ڪن ٿا، اھڙيء طرح غير ارادي تعصب کي ختم ڪري ٿو.

آواز جي ايپليڪيشنن تي هڪ نظر وٺو. جڏهن هڪ ذهين AI طريقي کي لاڳو ڪرڻ، ۽ عالمي ٽيلنٽ پول جي طاقت کي استعمال ڪندي، ڊولپرز لساني عنصرن جهڙوڪ ڊيٽا سيٽن ۾ مختلف لهجي ۽ تلفظ جو حساب ڪري سگهن ٿا.

شروعات کان وٺي انساني مرڪز جي جوڙجڪ فريم ورڪ کي قائم ڪرڻ ضروري آهي. اھو ھڪڙو ڊگھو رستو و ensي ٿو انھيءَ towardالھ کي يقيني بنائڻ لاءِ ته ڊيٽا generatedاھيل ، ratedھيل ، ۽ ليبل ٿيل آھي آخري صارفن جي اميدن کي پورو ڪري ٿو. پر اهو پڻ ضروري آهي ته انسانن کي پوري پيداوار جي ترقي واري زندگي جي دوران لوپ ۾ رکو. 

لوپ ۾ انسان پڻ مدد ڪري سگھن ٿا مشينن کي ھر مخصوص سامعين لاءِ بھتر AI تجربو ٺاھيو. Pactera EDGE تي، اسان جي AI ڊيٽا پروجيڪٽ ٽيمون، جيڪي عالمي سطح تي واقع آهن، سمجھن ٿا ته ڪيئن مختلف ثقافتون ۽ حوالا قابل اعتماد AI ٽريننگ ڊيٽا جي گڏ ڪرڻ ۽ ترتيب ڏيڻ تي اثر انداز ڪري سگهن ٿا. انهن وٽ ضروري اوزار آهن انهن کي مسئلن کي نشانو بڻائڻ جي ضرورت آهي، انهن جي نگراني ڪرڻ، ۽ انهن کي درست ڪرڻ کان اڳ هڪ AI-بنياد حل لائيو وڃي.

Human-in-the-loop AI ھڪڙو پروجيڪٽ ”حفاظتي نيٽ“ آھي جيڪو ماڻھن جي طاقتن ۽ انھن جي متنوع پس منظر کي مشين جي تيز ڪمپيوٽنگ پاور سان گڏ ڪري ٿو. ھي انسان ۽ AI تعاون جي ضرورت آھي پروگرامن جي شروعات کان و establishedي ته جيئن تعصب وارو ڊيٽا منصوبي جو بنياد نه اھي. 

2. ذهين AI ذميوار آهي

ذميوار هجڻ کي يقيني بڻائڻ آهي ته AI سسٽم تعصب کان آزاد آهن ۽ اهي اخلاقيات تي ٻڌل آهن. اھو انھيءَ باري ۾ آھي ته ڪيئن ، ،و ، ۽ ڪٿي ڊيٽا createdاھيو و ،ي ٿو ، اھو ڪيئن AIھيل آھي AI سسٽمز ذريعي ، ۽ اھو ڪھڙي طرح استعمال ڪيو و makingي ٿو فيصلا ڪرڻ ۾ ، فيصلا جن جا اخلاقي اثر ٿي سگھن ٿا. هڪ ڪاروبار لاءِ ائين ڪرڻ جو هڪ طريقو اهو آهي ته گهٽ نمائندگي ڪندڙ برادرين سان گڏ ڪم ڪيو وڃي ته جيئن وڌيڪ جامع ۽ گهٽ تعصب هجي. ڊيٽا جي تشريح جي ميدان ۾، نئين تحقيق ان ڳالهه کي اجاگر ڪري رهي آهي ته ڪيئن هڪ ملٽي اينوٽيٽر ملٽي ٽاسڪ ماڊل جيڪو هر اينوٽيٽر جي ليبلز کي الڳ سب ٽاسڪ طور علاج ڪري ٿو عام زميني سچائي طريقن ۾ موجود امڪاني مسئلن کي گھٽائڻ ۾ مدد ڪري سگھي ٿو جتي اينوٽيٽر جي اختلافن جي ڪري ٿي سگهي ٿي گهٽ نمائندگي ۽ تشريح جي مجموعي ۾ نظرانداز ڪري سگھجي ٿو ھڪڙي زميني سچائيءَ کي. 

3. قابل اعتماد

اعتماد هڪ ڪاروبار مان اچي ٿو شفاف ۽ وضاحت جي قابل هجڻ ۾ AI ماڊل کي ڪيئن تربيت ڏني وئي آهي، اهو ڪيئن ڪم ڪري ٿو، ۽ اهي نتيجن جي سفارش ڇو ڪن ٿا. هڪ ڪاروبار کي AI لوڪلائيزيشن سان مهارت جي ضرورت آهي ته جيئن ان جي گراهڪ لاءِ پنهنجي AI ايپليڪيشنن کي وڌيڪ جامع ۽ ذاتي بڻائڻ ممڪن بڻائي، مقامي ٻوليءَ ۽ صارف جي تجربن ۾ نازڪ نزاڪتن جو احترام ڪندي جيڪي هڪ ملڪ کان ٻئي ملڪ تائين AI حل جي اعتبار کي ٽوڙي يا ٽوڙي سگهن ٿا. . مثال طور ، ھڪڙي ڪاروبار کي پنھنجي اپليڪيشنون designاھڻ گھرجن ذاتي ۽ مڪاني لحاظن لاءِ ، بشمول languagesوليون ، lectوليون ، ۽ تلفظ آوازن تي applicationsل ايپليڪيشنن ۾. انھيءَ طريقي سان ، ھڪڙي ايپ آڻيندي سا voiceئي سطح جو صوتي تجربو نفاست ھر toوليءَ ۾ ، انگريزيءَ کان و -ي نمائندگيءَ واري .ولين تائين.

انصاف ۽ تنوع

آخرڪار، ذھني AI يقيني بڻائي ٿو حل منصفانه ۽ متنوع ڊيٽا سيٽن تي ٺاھيا ويا آھن جتي خاص نتيجن جا نتيجا ۽ اثر مانيٽر ڪيا وڃن ٿا ۽ جائزو ورتو وڃي ٿو حل مارڪيٽ ۾ وڃڻ کان اڳ. هوشيار ٿيڻ ۽ حل جي ترقيءَ جي هر حصي ۾ انسانن کي شامل ڪرڻ سان، اسان مدد ڪريون ٿا ته AI ماڊل صاف سٿرا، گهٽ ۾ گهٽ تعصب رکندڙ، ۽ جيترو ٿي سگهي اخلاقي هجن.

توهان ڇا ٿا سوچيو؟

هي سائيٽ اسپام کي گهٽائڻ لاء اکزمٽ استعمال ڪري ٿو. سکو ته توهان جي تجويز ڪيل ڊيٽا کي ڪيئن عمل ڪيو وڃي.