7 ٹائمز مشین لرننگ غلط ہو گئی۔

7 ٹائمز مشین لرننگ غلط ہو گئی۔
آپ جیسے قارئین MUO کو سپورٹ کرنے میں مدد کرتے ہیں۔ جب آپ ہماری سائٹ پر لنکس کا استعمال کرتے ہوئے خریداری کرتے ہیں، تو ہم ملحق کمیشن حاصل کر سکتے ہیں۔ مزید پڑھ.

مشین لرننگ مصنوعی ذہانت پیدا کرنے کا ایک بہترین طریقہ ہے جو طاقتور ہے اور اس کے تربیتی ڈیٹا کے مطابق ہے۔ لیکن بعض اوقات، یہ ڈیٹا مسائل کا سبب بن سکتا ہے۔ دوسری بار، لوگ جس طرح سے ان AI ٹولز کو استعمال کرتے ہیں وہ مسئلہ ہے۔





یہاں کچھ ہائی پروفائل واقعات پر ایک نظر ہے جہاں مشین لرننگ کے نتیجے میں مشکلات پیدا ہوئیں۔





دن کی ویڈیو کا میک یوز مواد کے ساتھ جاری رکھنے کے لیے اسکرول کریں۔

1. گوگل تصویری تلاش کے نتائج کی خرابیاں

  گوگل امیج-تلاش-نتائج-تنازعات

گوگل سرچ نے ویب پر نیویگیٹ کرنا بہت آسان بنا دیا ہے۔ انجن کا الگورتھم نتائج اخذ کرتے وقت مختلف چیزوں کو مدنظر رکھتا ہے۔ لیکن الگورتھم صارف کی ٹریفک سے بھی سیکھتا ہے، جو تلاش کے نتائج کے معیار کے لیے مسائل پیدا کر سکتا ہے۔





یہ تصویر کے نتائج سے زیادہ واضح نہیں ہے۔ چونکہ زیادہ ٹریفک حاصل کرنے والے صفحات پر ان کی تصاویر کے ظاہر ہونے کا زیادہ امکان ہوتا ہے، اس لیے وہ کہانیاں جو زیادہ تعداد میں صارفین کو اپنی طرف متوجہ کرتی ہیں، بشمول کلک بیٹ، کو ترجیح دی جا سکتی ہے۔

مثال کے طور پر، 'جنوبی افریقہ میں اسکواٹر کیمپ' کے لیے تصویری تلاش کے نتائج اس وقت تنازعہ کا باعث بنے جب یہ پتہ چلا کہ اس میں سفید فام جنوبی افریقیوں کی اکثریت ہے۔ یہ اعدادوشمار کے باوجود ہے کہ غیر رسمی رہائش گاہوں میں رہنے والوں کی اکثریت سیاہ فام جنوبی افریقی ہے۔



گوگل کے الگورتھم میں استعمال ہونے والے عوامل کا یہ مطلب بھی ہے کہ انٹرنیٹ استعمال کرنے والے نتائج میں ہیرا پھیری کر سکتے ہیں۔ مثال کے طور پر، صارفین کی ایک مہم نے گوگل امیج سرچ کے نتائج کو اس حد تک متاثر کیا کہ اصطلاح 'بیوقوف' کی تلاش میں ایک مدت کے لیے سابق امریکی صدر ڈونلڈ ٹرمپ کی تصاویر دکھائی دیں۔

2. مائیکروسافٹ بوٹ ٹائی نازی بن گیا۔





AI سے چلنے والے چیٹ بوٹس انتہائی مقبول ہیں، خاص طور پر وہ جو ChatGPT جیسے بڑے لینگویج ماڈلز سے چلتے ہیں۔ ChatGPT میں کئی مسائل ہیں۔ لیکن اس کے تخلیق کاروں نے بھی دوسری کمپنیوں کی غلطیوں سے سیکھا ہے۔

چیٹ بوٹس کے خراب ہونے کے سب سے اعلیٰ واقعات میں سے ایک مائیکروسافٹ کی اپنی چیٹ بوٹ Tay کو لانچ کرنے کی کوشش تھی۔





سنیپ چیٹ پر لوکیشن آف کرنے کا طریقہ

Tay نے ایک نوعمر لڑکی کی زبان کے نمونوں کی نقل کی اور ٹویٹر کے دوسرے صارفین کے ساتھ اس کی بات چیت کے ذریعے سیکھی۔ تاہم، جب اس نے نازی بیانات اور نسلی گالیاں بانٹنا شروع کیں تو وہ AI کی سب سے بدنام زمانہ غلطیوں میں سے ایک بن گئی۔ اس سے پتہ چلتا ہے کہ ٹرولز نے اس کے خلاف AI کی مشین لرننگ کا استعمال کیا تھا، اس میں تعصب سے بھری تعاملات کا سیلاب آیا تھا۔

کچھ ہی دیر بعد، مائیکروسافٹ نے ٹائی کو اچھے طریقے سے آف لائن کر دیا۔

3. AI چہرے کی شناخت کے مسائل

چہرے کی شناخت AI اکثر تمام غلط وجوہات کی بنا پر سرخیاں بنتی ہے، جیسے کہ چہرے کی شناخت اور رازداری کے خدشات کے بارے میں کہانیاں۔ لیکن رنگین لوگوں کو پہچاننے کی کوشش کرتے وقت اس AI کی ایک پریشانی کی تاریخ ہے۔

2015 میں، صارفین نے دریافت کیا کہ گوگل فوٹوز کچھ سیاہ فام لوگوں کو گوریلا کے طور پر درجہ بندی کر رہا ہے۔ 2018 میں، ACLU کی تحقیق سے پتہ چلتا ہے کہ Amazon کے Recognition چہرے کی شناخت کرنے والے سافٹ ویئر نے امریکی کانگریس کے 28 اراکین کو پولیس کے مشتبہ افراد کے طور پر شناخت کیا، جس میں غلط مثبت رنگ کے لوگوں کو غیر متناسب طور پر متاثر کرتے ہیں۔

ایک اور واقعہ میں ایپل کے فیس آئی ڈی سافٹ ویئر میں دو مختلف چینی خواتین کو ایک ہی شخص کے طور پر غلط طریقے سے شناخت کرنا شامل تھا۔ نتیجے کے طور پر، آئی فون ایکس کے مالک کا ساتھی فون کو غیر مقفل کر سکتا ہے۔

انتہائی نتائج کی ایک مثال میں، چہرے کی شناخت AI کئی لوگوں کی غلط گرفتاریوں کا باعث بنی ہے۔ وائرڈ اس طرح کے تین واقعات کی اطلاع دی گئی۔

دریں اثنا، کمپیوٹر سائنسدان جوئے بولاموینی نے یاد کیا کہ چہرے کی شناخت کی ٹیکنالوجی پر کام کرتے ہوئے اکثر سفید ماسک پہننے کی ضرورت پڑتی تھی تاکہ سافٹ ویئر اسے پہچان سکے۔ اس طرح کے مسائل کو حل کرنے کے لیے، Buolamwini اور دیگر IT پیشہ ور افراد AI تعصب کے مسئلے اور مزید جامع ڈیٹا سیٹس کی ضرورت پر توجہ دلاتے ہیں۔

4. ڈیپ فیکس دھوکہ دہی کے لیے استعمال کیا جاتا ہے۔

جب کہ لوگوں نے طویل عرصے سے فوٹو شاپ کو دھوکہ دہی کی تصاویر بنانے کے لیے استعمال کیا ہے، مشین لرننگ اسے ایک نئی سطح پر لے جاتی ہے۔ ڈیپ فیکس جعلی تصاویر اور ویڈیوز بنانے کے لیے ڈیپ لرننگ AI کا استعمال کرتے ہیں۔ . FaceApp جیسا سافٹ ویئر آپ کو ایک ویڈیو سے دوسرے میں مضامین کو تبدیل کرنے کی اجازت دیتا ہے۔

لیکن بہت سے لوگ مختلف قسم کے بدنیتی پر مبنی استعمال کے لیے سافٹ ویئر کا استحصال کرتے ہیں، بشمول مشہور شخصیات کے چہروں کو بالغ ویڈیوز میں سپرپوز کرنا یا دھوکہ دہی والی ویڈیوز بنانا۔ دریں اثنا، انٹرنیٹ صارفین نے ٹیکنالوجی کو بہتر بنانے میں مدد کی ہے تاکہ جعلی ویڈیوز سے اصلی ویڈیوز میں فرق کرنا مشکل ہوتا جائے۔ نتیجے کے طور پر، یہ اس قسم کی AI کو جعلی خبروں اور دھوکہ دہی پھیلانے کے معاملے میں بہت طاقتور بناتا ہے۔

ٹیکنالوجی کی طاقت کو دکھانے کے لیے، ڈائریکٹر Jordan Peele اور BuzzFeed کے CEO Jonah Peretti نے ایک ڈیپ فیک ویڈیو بنائی جس میں دکھایا گیا ہے کہ سابق امریکی صدر براک اوباما ڈیپ فیکس کی طاقت پر PSA فراہم کرتے ہیں۔

جعلی تصاویر کی طاقت AI کے ذریعے چلنے والے امیج جنریٹرز کے ذریعے تیز کر دی گئی ہے۔ 2023 میں وائرل پوسٹس جس میں ڈونلڈ ٹرمپ کو گرفتار کیا گیا اور پفر جیکٹ میں کیتھولک پوپ کو جنریٹو AI کا نتیجہ دکھایا گیا تھا۔

آپ کو اس سرور تک رسائی حاصل کرنے کی اجازت نہیں ہے۔ اپاچی

وہاں ہے AI سے تیار کردہ تصویر کو تلاش کرنے کے لیے آپ ان تجاویز پر عمل کر سکتے ہیں۔ لیکن ٹیکنالوجی تیزی سے نفیس ہوتی جا رہی ہے۔

5. ملازمین کا کہنا ہے کہ Amazon AI نے فیصلہ کیا ہے کہ مردوں کی خدمات حاصل کرنا بہتر ہے۔

اکتوبر 2018 میں، رائٹرز رپورٹ کیا کہ ایمیزون کو نوکری کی بھرتی کے ٹول کو ختم کرنا پڑا جب سافٹ ویئر کے اے آئی نے فیصلہ کیا کہ مرد امیدوار ترجیحی ہیں۔

وہ ملازمین جو گمنام رہنے کی خواہش رکھتے تھے، روئٹرز کو پروجیکٹ پر اپنے کام کے بارے میں بتانے کے لیے آگے آئے۔ ڈویلپرز چاہتے تھے کہ AI اپنے CVs کی بنیاد پر ملازمت کے لیے بہترین امیدواروں کی شناخت کرے۔ تاہم، اس منصوبے میں شامل لوگوں نے جلد ہی دیکھا کہ AI نے خواتین امیدواروں کو جرمانہ کیا۔ انہوں نے وضاحت کی کہ AI نے گزشتہ دہائی سے CVs کا استعمال کیا، جن میں سے زیادہ تر مردوں کے تھے، اپنے تربیتی ڈیٹاسیٹ کے طور پر۔

نتیجے کے طور پر، AI نے کلیدی لفظ 'خواتین' کی بنیاد پر CVs کو فلٹر کرنا شروع کیا۔ کلیدی لفظ سی وی میں 'خواتین کے شطرنج کلب کی کپتان' جیسی سرگرمیوں کے تحت ظاہر ہوا۔ جبکہ ڈویلپرز نے خواتین کے CVs کے اس جرمانے کو روکنے کے لیے AI میں تبدیلی کی، ایمیزون نے بالآخر اس پروجیکٹ کو ختم کردیا۔

6. جیل بروکن چیٹ بوٹس

اگرچہ نئے چیٹ بوٹس کے پاس ایسے جوابات دینے سے روکنے کے لیے حدود ہیں جو ان کی سروس کی شرائط کے خلاف ہیں، صارفین ممنوعہ مواد فراہم کرنے کے لیے ٹولز کو جیل بریک کرنے کے طریقے تلاش کر رہے ہیں۔

2023 میں، ایک فورس پوائنٹ سیکیورٹی محقق آرون ملگریو چیٹ جی پی ٹی پرامپٹس کا استعمال کرتے ہوئے صفر دن کا میلویئر بنانے میں کامیاب رہا۔

لفظ میں ایک اضافی صفحہ کیسے ہٹایا جائے۔

ملگریو نے ایک بیان میں کہا، 'صرف چیٹ جی پی ٹی پرامپٹ کا استعمال کرتے ہوئے، اور بغیر کوئی کوڈ لکھے، ہم صرف چند گھنٹوں میں ایک انتہائی جدید حملہ کرنے میں کامیاب ہو گئے۔' فورس پوائنٹ پوسٹ .

صارفین مبینہ طور پر چیٹ بوٹس حاصل کرنے میں کامیاب رہے ہیں تاکہ انہیں بم بنانے یا کاریں چوری کرنے کے بارے میں ہدایات دیں۔

7. خود ڈرائیونگ کار کریش

خود چلانے والی AI کی غلطیوں کی وجہ سے خود مختار گاڑیوں کا جوش اس کے ابتدائی ہائپ مرحلے سے ہی کم ہو گیا ہے۔ 2022 میں، واشنگٹن پوسٹ رپورٹ کیا کہ تقریباً ایک سال میں، 392 حادثات کی اطلاع امریکی نیشنل ہائی وے ٹریفک سیفٹی ایڈمنسٹریشن کو دی گئی۔

ان حادثات میں شدید زخمی اور چھ ہلاکتیں شامل ہیں۔

اگرچہ اس نے ٹیسلا جیسی کمپنیوں کو مکمل طور پر خود مختار گاڑیوں کا تعاقب کرنے سے نہیں روکا ہے، لیکن اس نے حادثات میں اضافے کے بارے میں خدشات کو جنم دیا ہے کیونکہ سیلف ڈرائیونگ سافٹ ویئر والی زیادہ کاریں سڑکوں پر آتی ہیں۔

مشین لرننگ AI فول پروف نہیں ہے۔

اگرچہ مشین لرننگ طاقتور AI ٹولز بنا سکتی ہے، لیکن وہ خراب ڈیٹا یا انسانی چھیڑ چھاڑ سے محفوظ نہیں ہیں۔ چاہے غلط تربیتی ڈیٹا، AI ٹیکنالوجی کے ساتھ محدودیت، یا خراب اداکاروں کے استعمال کی وجہ سے، اس قسم کی AI نے بہت سے منفی واقعات کو جنم دیا ہے۔