چیٹ جی پی ٹی – ٹیکنالوجی جیسے جنریٹیو اے آئی سے نمٹنے کے لیے ریگولیٹرز قواعد کی کتابوں کو خاک میں ملا دیتے ہیں۔

82


جیسا کہ ChatGPT جیسی زیادہ طاقتور مصنوعی ذہانت کی خدمات تیار کرنے کی دوڑ تیز ہو رہی ہے، کچھ ریگولیٹرز ایسی ٹیکنالوجی کو کنٹرول کرنے کے لیے پرانے قوانین پر انحصار کر رہے ہیں جو معاشروں اور کاروبار کے کام کرنے کے طریقے کو خراب کر سکتی ہے۔

یورپی یونین نئے AI قوانین کا مسودہ تیار کرنے میں سب سے آگے ہے جو OpenAI کی ChatGPT کے پیچھے جنریٹیو AI ٹیکنالوجی میں تیزی سے ترقی کے ساتھ پیدا ہونے والے رازداری اور حفاظت کے خدشات کو دور کرنے کے لیے عالمی معیار قائم کر سکتے ہیں۔

لیکن اس قانون کے نفاذ میں کئی سال لگیں گے۔

کنسلٹنسی BIP میں یورپی ڈیٹا گورننس کے ماہر ماسیمیلانو سیمنگھی نے کہا، "ضابطوں کی عدم موجودگی میں، حکومتیں صرف وہی کر سکتی ہیں جو موجودہ قوانین کو لاگو کر سکتی ہیں۔”

"اگر یہ ذاتی ڈیٹا کی حفاظت کے بارے میں ہے، تو وہ ڈیٹا کے تحفظ کے قوانین کا اطلاق کرتے ہیں، اگر یہ لوگوں کی حفاظت کے لیے خطرہ ہے، تو ایسے ضابطے ہیں جن کی AI کے لیے خاص طور پر وضاحت نہیں کی گئی ہے، لیکن وہ اب بھی لاگو ہیں۔”

اپریل میں، اطالوی ریگولیٹر گارانٹے کی جانب سے سروس کو آف لائن لے جانے کے بعد، یورپ کے قومی رازداری کے نگران اداروں نے ChatGPT کے ساتھ مسائل کو حل کرنے کے لیے ایک ٹاسک فورس قائم کی، جس میں OpenAI پر EU کے GDPR کی خلاف ورزی کا الزام لگایا گیا، جو کہ 2018 میں نافذ کردہ ایک وسیع پرائیویسی نظام ہے۔

امریکی کمپنی کی جانب سے عمر کی تصدیق کے فیچرز انسٹال کرنے اور یورپی صارفین کو اپنی معلومات کو AI ماڈل کی تربیت کے لیے استعمال کرنے سے روکنے کے لیے رضامندی کے بعد ChatGPT کو بحال کر دیا گیا۔

گارانٹے کے قریبی ذرائع نے رائٹرز کو بتایا کہ ایجنسی دیگر جنریٹو اے آئی ٹولز کی زیادہ وسیع پیمانے پر جانچ کرنا شروع کر دے گی۔ فرانس اور اسپین میں ڈیٹا پروٹیکشن حکام نے بھی اپریل میں اوپن اے آئی کی پرائیویسی قوانین کی تعمیل کی تحقیقات شروع کیں۔

تخلیقی AI ماڈل غلطیاں کرنے، یا ” فریب کاری” کرنے کے لیے مشہور ہو چکے ہیں، غیر معمولی یقین کے ساتھ غلط معلومات کو پھیلاتے ہیں۔

ایسی غلطیوں کے سنگین نتائج ہو سکتے ہیں۔ اگر کوئی بینک یا سرکاری محکمہ فیصلہ سازی کو تیز کرنے کے لیے AI کا استعمال کرتا ہے، تو افراد کو قرضوں یا فوائد کی ادائیگی کے لیے غیر منصفانہ طور پر مسترد کیا جا سکتا ہے۔ بڑی ٹیک کمپنیوں بشمول Alphabet’s Google (GOOGL.O) اور Microsoft Corp (MSFT.O) نے مالیاتی مصنوعات کی طرح اخلاقی طور پر مشکل سمجھی جانے والی AI مصنوعات کا استعمال بند کر دیا تھا۔

ریاستہائے متحدہ اور یورپ کے چھ ریگولیٹرز اور ماہرین کے مطابق، ریگولیٹرز کا مقصد کاپی رائٹ اور ڈیٹا پرائیویسی سے لے کر دو اہم مسائل تک ہر چیز کا احاطہ کرنے والے موجودہ قوانین کو لاگو کرنا ہے: ماڈلز میں فراہم کردہ ڈیٹا اور ان کے تیار کردہ مواد۔

وائٹ ہاؤس کے سابق ٹکنالوجی مشیر سریش وینکٹاسبرامنین نے کہا کہ دونوں خطوں کی ایجنسیوں کو "اپنے مینڈیٹ کی تشریح اور دوبارہ تشریح کرنے کی ترغیب دی جا رہی ہے۔” انہوں نے موجودہ ریگولیٹری طاقتوں کے تحت امتیازی طریقوں کے لیے الگورتھم کی امریکی فیڈرل ٹریڈ کمیشن (FTC) کی تحقیقات کا حوالہ دیا۔

EU میں، بلاک کے AI ایکٹ کے لیے تجاویز OpenAI جیسی کمپنیوں کو کسی بھی کاپی رائٹ شدہ مواد کو ظاہر کرنے پر مجبور کرے گی – جیسے کتابیں یا تصویریں – جو ان کے ماڈلز کو تربیت دینے کے لیے استعمال ہوتی ہیں، جس سے وہ قانونی چیلنجوں کا شکار ہو جاتے ہیں۔

کاپی رائٹ کی خلاف ورزی کو ثابت کرنا سیدھا نہیں ہوگا، اگرچہ EU کی تجاویز کا مسودہ تیار کرنے میں شامل متعدد سیاست دانوں میں سے ایک، Sergey Lagodinsky کے مطابق۔

انہوں نے کہا کہ یہ ایسا ہی ہے جیسے آپ اپنے لکھنے سے پہلے سینکڑوں ناول پڑھ لیں۔ "اگر آپ واقعی کسی چیز کو کاپی کرتے ہیں اور اسے شائع کرتے ہیں، تو یہ ایک چیز ہے۔ لیکن اگر آپ براہ راست کسی اور کے مواد کا سرقہ نہیں کر رہے ہیں، تو اس سے کوئی فرق نہیں پڑتا کہ آپ نے خود کو کس چیز کی تربیت دی ہے۔

فرانسیسی ڈیٹا ریگولیٹر CNIL نے اس بارے میں "تخلیقی طور پر سوچنا” شروع کر دیا ہے کہ موجودہ قوانین AI پر کیسے لاگو ہو سکتے ہیں، اس کے ٹیکنالوجی لیڈ برٹرینڈ پیلیس کے مطابق۔

مثال کے طور پر، فرانس میں امتیازی سلوک کے دعوے عام طور پر Defenceur des Droits (Defender of Rights) کے ذریعے سنبھالے جاتے ہیں۔ تاہم، اس کی AI تعصب میں مہارت کی کمی نے CNIL کو اس مسئلے پر قیادت کرنے پر اکسایا، انہوں نے کہا۔

انہوں نے رائٹرز کو بتایا، "ہم اثرات کی مکمل رینج کو دیکھ رہے ہیں، حالانکہ ہماری توجہ ڈیٹا کے تحفظ اور رازداری پر مرکوز ہے۔”

تنظیم جی ڈی پی آر کی ایک شق استعمال کرنے پر غور کر رہی ہے جو افراد کو خودکار فیصلہ سازی سے بچاتا ہے۔

"اس مرحلے پر، میں یہ نہیں کہہ سکتا کہ یہ کافی ہے، قانونی طور پر،” پیلیس نے کہا۔ "ایک رائے قائم کرنے میں کچھ وقت لگے گا، اور یہ خطرہ ہے کہ مختلف ریگولیٹرز مختلف نظریات لیں گے۔”

برطانیہ میں، فنانشل کنڈکٹ اتھارٹی کئی ریاستی ریگولیٹرز میں سے ایک ہے جسے AI کا احاطہ کرنے والے نئے رہنما خطوط تیار کرنے کا کام سونپا گیا ہے۔ ایک ترجمان نے رائٹرز کو بتایا کہ یہ ٹیکنالوجی کے بارے میں اپنی سمجھ کو بہتر بنانے کے لیے دیگر قانونی اور تعلیمی اداروں کے ساتھ ساتھ لندن میں ایلن ٹیورنگ انسٹی ٹیوٹ سے مشاورت کر رہا ہے۔

جب کہ ریگولیٹرز تکنیکی ترقی کی رفتار سے مطابقت رکھتے ہیں، صنعت کے کچھ اندرونی افراد نے کارپوریٹ رہنماؤں کے ساتھ زیادہ سے زیادہ مشغولیت کا مطالبہ کیا ہے۔

ہیری بورووک، Luminance کے جنرل کونسلر، ایک اسٹارٹ اپ جو AI کا استعمال قانونی دستاویزات پر کارروائی کرنے کے لیے کرتا ہے، نے رائٹرز کو بتایا کہ ریگولیٹرز اور کمپنیوں کے درمیان بات چیت اب تک "محدود” تھی۔

"یہ مستقبل کے لحاظ سے خاص طور پر اچھا نہیں ہے،” انہوں نے کہا۔ "ریگولیٹرز یا تو سست نظر آتے ہیں یا ان طریقوں کو لاگو کرنے کے لیے تیار نہیں ہیں جو صارفین کے تحفظ اور کاروبار کی ترقی کے درمیان صحیح توازن قائم کر سکیں گے۔”

جواب چھوڑیں

آپ کا ای میل ایڈریس شائع نہیں کیا جائے گا.

@media print { body { color: inherit; /* Ensures that the color is maintained */ } }