اے آئی ہیلوسینیشن کیا ہے، اور آپ اسے کیسے دیکھتے ہیں؟

اے آئی ہیلوسینیشن کیا ہے، اور آپ اسے کیسے دیکھتے ہیں؟
آپ جیسے قارئین MUO کو سپورٹ کرنے میں مدد کرتے ہیں۔ جب آپ ہماری سائٹ پر لنکس کا استعمال کرتے ہوئے خریداری کرتے ہیں، تو ہم ملحق کمیشن حاصل کر سکتے ہیں۔ مزید پڑھ.

مصنوعی ذہانت (AI) ہیلوسینیشن پریشان کن لگتا ہے۔ آپ شاید سوچ رہے ہیں، 'کیا فریب ایک انسانی رجحان نہیں ہے؟' ٹھیک ہے، ہاں، یہ ایک مکمل طور پر انسانی رجحان ہوا کرتا تھا جب تک کہ AI نے چہرے کی شناخت، خود سیکھنے، اور تقریر کی شناخت جیسی انسانی خصوصیات کو ظاہر کرنا شروع نہیں کیا۔





دن کی ویڈیو کا میک یوز مواد کے ساتھ جاری رکھنے کے لیے اسکرول کریں۔

بدقسمتی سے، AI نے کچھ منفی صفات کو اپنا لیا، بشمول فریب نظر۔ تو، کیا AI فریب کاری انسانوں کے تجربے کی طرح ہیلوسینیشن ہے؟





اے آئی ہیلوسینیشن کیا ہے؟

مصنوعی ذہانت کا فریب اس وقت ہوتا ہے جب ایک AI ماڈل توقع سے مختلف نتائج پیدا کرتا ہے۔ نوٹ کریں کہ کچھ AI ماڈلز کو جان بوجھ کر آؤٹ پٹ پیدا کرنے کی تربیت دی جاتی ہے جو کسی حقیقی دنیا کے ان پٹ (ڈیٹا) سے غیر متعلق ہے۔





مثال کے طور پر، ٹاپ AI ٹیکسٹ ٹو آرٹ جنریٹرز جیسا کہ DALL-E 2، تخلیقی طور پر ایسی نئی تصاویر تیار کر سکتا ہے جنہیں ہم 'ہیلوسینیشن' کے طور پر ٹیگ کر سکتے ہیں کیونکہ وہ حقیقی دنیا کے ڈیٹا پر مبنی نہیں ہیں۔

بڑے لینگویج پروسیسنگ ماڈلز میں اے آئی ہیلوسینیشن

آئیے اس بات پر غور کریں کہ ChatGPT جیسے بڑے لینگویج پروسیسنگ ماڈل میں AI ہیلوسینیشن کیسا نظر آئے گا۔ ایک ChatGPT ہیلوسینیشن کے نتیجے میں بوٹ آپ کو کچھ دعوے کے ساتھ ایک غلط حقیقت دے گا، جیسے کہ آپ قدرتی طور پر ایسے حقائق کو سچ سمجھیں گے۔



سادہ الفاظ میں، یہ مصنوعی طور پر ذہین چیٹ بوٹ کے ذریعہ بنائے گئے بیانات ہیں۔ یہاں ایک مثال ہے:

  چیٹ جی پی ٹی's response to where Elon Musk's house is located

مزید استفسار پر، ChatGPT اس کے ساتھ سامنے آیا:





  ایک ChatGPT پرامپٹ مزید استفسار کرتا ہے کہ ایلون مسک کہاں ہے۔'s factory is at in brazil

کمپیوٹر ویژن میں اے آئی ہیلوسینیشن

آئیے AI کے ایک اور شعبے پر غور کریں جو AI فریب کا تجربہ کر سکتا ہے: کمپیوٹر ویژن . ذیل میں کوئز دو اداروں کے ساتھ ایک 4x4 مونٹیج دکھاتا ہے جو بہت یکساں نظر آتے ہیں۔ تصاویر BBQ آلو کے چپس اور پتوں کا مرکب ہیں۔

چیلنج یہ ہے کہ مونٹیج میں کسی بھی پتے کو مارے بغیر آلو کے چپس کا انتخاب کریں۔ یہ تصویر کمپیوٹر کے لیے مشکل لگ سکتی ہے، اور یہ BBQ آلو کے چپس اور پتوں میں فرق کرنے سے قاصر ہو سکتی ہے۔





  BBQ آلو کے چپس اور پتوں کا 4x4 مونٹیج

پوڈل اور پورک فلاس بن امیجز کے آمیزے کے ساتھ یہ ایک اور مانٹیج ہے۔ ایک کمپیوٹر غالباً ان کے درمیان فرق کرنے سے قاصر ہوگا، اس لیے تصاویر کو ملانا۔

  پوڈل اور پورک فلاس بن کا 4x4 مونٹیج

اے آئی ہیلوسینیشن کیوں ہوتا ہے؟

AI فریب نظر مخالف مثالوں کی وجہ سے ہو سکتا ہے — ان پٹ ڈیٹا جو AI ایپلیکیشن کو غلط درجہ بندی کرنے کے لیے دھوکہ دیتا ہے۔ مثال کے طور پر، جب AI ایپلیکیشنز کی تربیت کرتے ہیں، تو ڈویلپر ڈیٹا (تصویر، متن، یا دیگر) استعمال کرتے ہیں۔ اگر ڈیٹا کو تبدیل یا مسخ کیا جاتا ہے، تو ایپلیکیشن غلط آؤٹ پٹ دیتے ہوئے ان پٹ کی مختلف تشریح کرتی ہے۔

اس کے برعکس، انسان تحریف کے باوجود ڈیٹا کو درست طریقے سے پہچان اور پہچان سکتا ہے۔ ہم اسے عام فہم کے طور پر ٹیگ کر سکتے ہیں — ایک انسانی وصف AI کے پاس ابھی تک نہیں ہے۔ اس ویڈیو میں دیکھیں کہ کس طرح AI کو مخالفانہ مثالوں سے بے وقوف بنایا جاتا ہے:

بڑے زبان پر مبنی ماڈلز جیسے کہ چیٹ جی پی ٹی اور اس کے متبادل ، ٹرانسفارمر (مشین لرننگ ماڈل) سے غلط ضابطہ کشائی سے فریب پیدا ہوسکتا ہے۔

درد خود گاڑی سے محبت کرنے کی بنیادی وجہ ہے۔ انگریزی میں

AI میں، ایک ٹرانسفارمر ایک گہرا سیکھنے والا ماڈل ہے جو خود توجہ (جملے میں الفاظ کے درمیان معنوی رشتے) کا استعمال کرتا ہے تاکہ متن تیار کیا جا سکے جیسا کہ ایک انسان انکوڈر-ڈیکوڈر (ان پٹ آؤٹ پٹ) ترتیب کا استعمال کرتے ہوئے لکھتا ہے۔

لہذا ٹرانسفارمرز، ایک نیم زیر نگرانی مشین لرننگ ماڈل، اس کی تربیت (ان پٹ) میں استعمال ہونے والے ٹیکسٹ ڈیٹا کے بڑے کارپس سے ٹیکسٹ کی ایک نئی باڈی (آؤٹ پٹ) تیار کر سکتے ہیں۔ یہ پچھلے الفاظ کی بنیاد پر سیریز میں اگلے لفظ کی پیشین گوئی کرکے ایسا کرتا ہے۔

فریب کاری کے بارے میں، اگر زبان کے ماڈل کو ناکافی اور غلط اعداد و شمار اور وسائل پر تربیت دی گئی تھی، تو امید کی جاتی ہے کہ آؤٹ پٹ تیار اور غلط ہوگا۔ زبان کا ماڈل منطقی تضادات یا غیر واضح کنکشن کے بغیر کہانی یا بیانیہ تخلیق کر سکتا ہے۔

نیچے دی گئی مثال میں، ChatGPT سے 'بغاوت' سے ملتا جلتا ایک لفظ دینے کو کہا گیا اور 'b' سے شروع ہوتا ہے۔ اس کا جواب یہ ہے:

  ChatGPT کا اسکرین شاٹ ایک سوال کا غلط جواب دیتا ہے۔

مزید تفتیش کرنے پر، یہ اعلیٰ سطح کے اعتماد کے ساتھ غلط جوابات دیتا رہا۔

  ChatGPT کا اسکرین شاٹ ایک پرامپٹ پر متعدد غلط جوابات دیتا ہے۔

تو کیوں ChatGPT ان اشارے کا درست جواب دینے سے قاصر ہے؟

یہ ہو سکتا ہے کہ زبان کا ماڈل ان جیسے پیچیدہ اشارے کو سنبھالنے کے لیے تیار نہ ہو یا یہ کسی مخصوص حروف تہجی کے ساتھ ملتا جلتا لفظ دینے کے اشارے کو نظر انداز کرتے ہوئے، پرامپٹ کی درست تشریح نہ کر سکے۔

آپ AI ہیلوسینیشن کو کیسے دیکھتے ہیں؟

اب یہ واضح ہو گیا ہے کہ AI ایپلی کیشنز میں گمراہ کرنے کی صلاحیت ہوتی ہے - بصورت دیگر کسی بھی بدنیتی کے ارادے کے بغیر متوقع آؤٹ پٹ (حقیقت یا سچائی) سے ردعمل پیدا کرتے ہیں۔ اور اے آئی کے فریب کو پہچاننا اور پہچاننا ایسی ایپلی کیشنز کے صارفین پر منحصر ہے۔

عام AI ایپلی کیشنز کا استعمال کرتے ہوئے AI فریب کو تلاش کرنے کے کچھ طریقے یہ ہیں:

1. بڑے لینگویج پروسیسنگ ماڈلز

  تیر والے نشانات پر بنگ چیٹ اور چیٹ جی پی ٹی دکھا رہی تصویر

اگرچہ شاذ و نادر ہی، اگر آپ کو ایک بڑے پروسیسنگ ماڈل، جیسے ChatGPT کے ذریعہ تیار کردہ مواد میں گرائمر کی غلطی نظر آتی ہے، تو اس سے ایک ابرو اٹھانا چاہئے اور آپ کو فریب کا شبہ کرنا چاہئے۔ اسی طرح، جب متن سے تیار کردہ مواد منطقی نہیں لگتا، دیے گئے سیاق و سباق سے مطابقت رکھتا ہے، یا ان پٹ ڈیٹا سے میل کھاتا ہے، تو آپ کو فریب کا شبہ ہونا چاہیے۔

انسانی فیصلے یا عقل کے استعمال سے فریب کا پتہ لگانے میں مدد مل سکتی ہے، کیونکہ انسان آسانی سے شناخت کر سکتا ہے جب متن کا کوئی مطلب نہیں ہے یا حقیقت کی پیروی نہیں کرتا ہے۔

2. کمپیوٹر ویژن

  سرکٹری اور انسانی سر کی تصویر

مصنوعی ذہانت، مشین لرننگ، اور کمپیوٹر سائنس کی ایک شاخ کے طور پر، کمپیوٹر ویژن کمپیوٹر کو انسانی آنکھوں کی طرح تصاویر کو پہچاننے اور اس پر کارروائی کرنے کا اختیار دیتا ہے۔ استعمال کرنا convolutional عصبی نیٹ ورک ، وہ اپنی تربیت میں استعمال ہونے والے بصری ڈیٹا کی ناقابل یقین مقدار پر انحصار کرتے ہیں۔

تربیت میں استعمال ہونے والے بصری ڈیٹا کے نمونوں سے انحراف کے نتیجے میں فریب نظر آئے گا۔ مثال کے طور پر، اگر کمپیوٹر کو ٹینس بال کی تصاویر کے ساتھ تربیت نہیں دی گئی تھی، تو وہ اسے سبز نارنجی کے طور پر پہچان سکتا ہے۔ یا اگر کمپیوٹر انسانی مجسمے کے ساتھ گھوڑے کو ایک حقیقی انسان کے ساتھ گھوڑے کے طور پر پہچانتا ہے، تو ایک AI فریب نظر آیا ہے۔

لہذا کمپیوٹر ویژن ہیلوسینیشن کو دیکھنے کے لیے، پیدا ہونے والے آؤٹ پٹ کا موازنہ کریں جو ایک [عام] انسان سے دیکھنے کی توقع کی جاتی ہے۔

3. خود سے چلنے والی کاریں

  فورڈ بلیو کروز 2
تصویری کریڈٹ: فورڈ

AI کی بدولت خود سے چلنے والی کاریں آہستہ آہستہ آٹو مارکیٹ میں گھس رہی ہیں۔ Tesla Autopilot اور Ford's BlueCruise جیسے علمبردار خود ڈرائیونگ کاروں کے منظر کو چیمپیئن کر رہے ہیں۔ آپ چیک آؤٹ کر سکتے ہیں۔ ٹیسلا آٹو پائلٹ کیسے اور کیا دیکھتا ہے۔ AI خود چلانے والی کاروں کو کس طرح طاقت دیتا ہے اس کی تھوڑی سی سمجھ حاصل کرنے کے لیے۔

اگر آپ ایسی کاروں میں سے ایک کے مالک ہیں، تو آپ جاننا چاہیں گے کہ کیا آپ کی AI کار فریب کا شکار ہے۔ ایک نشانی یہ ہوگی کہ اگر آپ کی گاڑی ڈرائیونگ کے دوران اپنے معمول کے رویے سے ہٹ رہی ہے۔ مثال کے طور پر، اگر گاڑی بغیر کسی واضح وجہ کے اچانک بریک لگتی ہے یا جھک جاتی ہے، تو آپ کی AI گاڑی فریب کا شکار ہو سکتی ہے۔

اے آئی سسٹمز بھی فریب کا شکار ہو سکتے ہیں۔

انسانوں اور AI ماڈلز مختلف انداز میں فریب کا تجربہ کرتے ہیں۔ جب AI کی بات آتی ہے تو فریب کاری سے مراد ایسے غلط نتائج ہوتے ہیں جو حقیقت سے میلوں دور ہوتے ہیں یا دیئے گئے پرامپٹ کے تناظر میں معنی نہیں رکھتے۔ مثال کے طور پر، ایک AI چیٹ بوٹ گرائمر یا منطقی طور پر غلط جواب دے سکتا ہے یا شور یا دیگر ساختی عوامل کی وجہ سے کسی چیز کی غلط شناخت کر سکتا ہے۔

AI فریب نظر شعوری یا لاشعوری ذہن سے نہیں ہوتا، جیسا کہ آپ انسانوں میں دیکھیں گے۔ بلکہ، یہ AI نظام کی تربیت اور پروگرامنگ میں استعمال ہونے والے ڈیٹا کی ناکافی یا ناکافی کا نتیجہ ہے۔