مصنوعی ذہانت: ترقی کی بلند اڑان یا انسانی کنٹرول کے لیے چیلنج؟
(تحریر:ڈاکٹرظہوراحمد دانش )
(دوٹھلہ نکیال آزادکشمیر)
انسانی تاریخ میں بعض ٹیکنالوجیاں ایسی آئی ہیں جنہوں
نے تہذیب کا رخ بدل دیا۔ پہیہ، طباعت، بجلی، انٹرنیٹ — اور اب مصنوعی ذہانت (Artificial Intelligence)۔
آج AI محض
ایک سافٹ ویئر یا سہولت کا نام نہیں رہا، بلکہ یہ معیشت، طب، تعلیم، قانون، دفاع،
میڈیا، حکومت، کاروبار اور روزمرہ زندگی کے ڈھانچے میں داخل ہو چکا ہے۔ اسی لیے
اصل سوال یہ نہیں کہ AI مفید
ہے یا مضر؛ اصل سوال یہ ہے کہ کیا انسان اس طاقت کو حکمت، اخلاق اور قانون کے
تحت قابو میں رکھ پائے گا یا نہیں؟ جدید عالمی تحقیق بتاتی ہے کہ AI نے غیر معمولی رفتار سے ترقی کی ہے،
اس کی لاگت کم ہوئی ہے، کارکردگی بڑھی ہے، اور ادارہ جاتی استعمال تیزی سے پھیل
رہا ہے۔ ساتھ ہی، AI سے
متعلق واقعات اور نقصانات کی رپورٹیں بھی نمایاں طور پر بڑھی ہیں، جس سے واضح ہوتا
ہے کہ ترقی اور خطرہ دونوں ساتھ ساتھ چل رہے ہیں۔
AI
کی ترقی کا سب سے روشن پہلو اس کی پیداواری صلاحیت
ہے۔ Stanford HAI کے
2025 AI Index کے
مطابق AI اب
معیشت، حکمرانی اور سماجی شعبوں پر پہلے سے کہیں زیادہ اثرانداز ہو رہی ہے، جبکہ
کئی مطالعے یہ ظاہر کرتے ہیں کہ AI اکثر
کارکنوں کی productivity بڑھاتی
اور بعض حالات میں کم تجربہ کار افراد اور ماہرین کے درمیان
skill gap بھی کم کرتی ہے۔
NBER کے ایک معروف مطالعے میں 5,000 سے زیادہ customer-support کارکنوں کے ڈیٹا سے معلوم
ہوا کہ generative AI معاونت
نے اوسط productivity میں
تقریباً 14 فیصد اضافہ کیا، جبکہ نوآموز یا نسبتاً کم مہارت رکھنے والوں کے لیے
فائدہ اس سے کہیں زیادہ تھا۔ MIT کے
تجرباتی مطالعے میں ChatGPT جیسے
اوزار نے پیشہ ورانہ تحریری کام میں وقت کم اور معیار بہتر کیا۔ اس سے یہ نتیجہ
نکلتا ہے کہ AI محض
“کام چھیننے” والی طاقت نہیں؛ درست استعمال میں یہ “کام بہتر کرنے” اور انسانی
صلاحیت بڑھانے” والی قوت بھی ہے۔
صحت کے میدان میں
AI کی افادیت اور بھی نمایاں ہے۔ عالمی ادارۂ صحت (WHO) نے
AI for Health کے بارے میں واضح کیا ہے کہ یہ ٹیکنالوجی
صحت کے نظام کو زیادہ people-centered،
equitable
اور sustainable بنانے
میں مدد دے سکتی ہے، جبکہ 2025 کی WHO guidance نے
بڑی multi-modal AI systems کے
صحت، تحقیق، عوامی صحت اور ادویہ سازی میں وسیع استعمال کی طرف اشارہ کیا ہے۔ اس
کے عملی معنی یہ ہیں کہ AI تصویری
تشخیص، disease pattern recognition، drug discovery،
clinical
documentation، اور
public-health surveillance میں فیصلہ سازی کو تیز
اور مؤثر بنا سکتی ہے۔ مگر WHO نے
ساتھ یہ بھی واضح کیا کہ صحت کے میدان میں
AI کو عوامی مفاد، شفافیت، احتساب اور انسانی نگرانی کے
تابع رہنا چاہیے؛ ورنہ فائدے کے ساتھ سنگین نقصان بھی جنم لے سکتا ہے۔
تعلیم اور علم کی دنیا میں بھی
AI ایک انقلابی موڑ ہے۔ آج یہ ذاتی نوعیت کی تعلیم، زبانوں
کے درمیان ترجمہ، special-needs learning support، research assistance اور creative ideation میں مدد دے رہی
ہے۔ UNESCO کی AI ethics recommendation نے
واضح کیا کہ AI systems میں auditability، traceability، transparency اور human oversight ضروری ہیں، کیونکہ تعلیم
اور علم کی تشکیل میں اگر الگورتھم غیر شفاف یا متعصب ہو جائیں تو وہ صرف غلطی
نہیں کرتے بلکہ نسلوں کی فکری ساخت کو متاثر کرتے ہیں۔ اس لیے تعلیمی میدان میں AI کا بہترین کردار “استاد کا متبادل”
نہیں بلکہ “استاد کا معاون” ہے؛ یعنی AI معلومات
فراہم کرے، مگر تربیت، تنقیدی شعور اور اخلاقی سمت انسان ہی دے۔
معاشی سطح پر
AI کی تیز رفتار پیش رفت حیران کن ہے۔ Stanford AI Index 2025 کے
مطابق GPT-3.5 کے
درجے کی کارکردگی دینے والے نظام کی inference cost نومبر
2022 سے اکتوبر 2024 کے درمیان 280 گنا سے زیادہ کم ہوئی، جبکہ hardware level پر لاگت میں سالانہ
تقریباً 30 فیصد کمی اور energy efficiency میں
سالانہ تقریباً 40 فیصد بہتری دیکھی گئی۔
OECD کے مطابق 2025 میں بعض OECD ممالک میں ادارہ جاتی سطح
پر AI استعمال
کرنے والی firms کا
تناسب 20.2 فیصد تک پہنچ گیا، جو 2023 کے مقابلے میں دوگنا سے بھی زیادہ رجحان
دکھاتا ہے۔ یہ اعداد و شمار بتاتے ہیں کہ
AI اب تجربہ گاہ کی چیز نہیں؛ یہ سرمایہ، صنعت اور قومی
مسابقت کا بنیادی جزو بنتی جا رہی ہے۔
لیکن جہاں ترقی کی یہ بلند اڑان ہے، وہیں انسانی کنٹرول
کے لیے ایک بڑا چیلنج بھی موجود ہے: AI ہمیشہ
سچ نہیں بولتی، مگر بہت اعتماد سے غلط بھی بول سکتی ہے۔
یہی وہ مسئلہ ہے جسے “hallucination” کہا
جاتا ہے۔ مشہور مقدمہ Mata v. Avianca
میں عدالت نے اس بات پر سخت ردِعمل دیا کہ وکلاء نے ChatGPT سے
بنائے گئے جعلی عدالتی حوالہ جات جمع کرا دیے تھے۔ عدالتی ریکارڈ میں واضح ہوا کہ fake quotes اور
non-existent cases پیش کیے گئے۔ یہ واقعہ محض ایک قانونی
لغزش نہیں تھا؛ یہ اس بڑے خطرے کی علامت تھا کہ اگر
AI outputs کی انسانی جانچ نہ ہو تو فیصلہ سازی، انصاف
اور ادارہ جاتی اعتبار بری طرح متاثر ہو سکتا ہے۔
اسی طرح کاروباری دنیا میں
Air Canada کے
chatbot کا واقعہ ایک سبق آموز مثال ہے۔ 2024 میں
ایک مقدمے میں کمپنی کو اس غلط معلومات کا ذمہ دار ٹھہرایا گیا جو اس کے chatbot نے صارف کو دی تھی۔ اس
واقعے نے یہ اصول واضح کیا کہ کوئی ادارہ اپنے
AI نظام سے الگ ہو کر یہ نہیں کہہ سکتا کہ “مشین نے غلطی
کی، ہم ذمہ دار نہیں۔” درحقیقت AI جب
ادارے کے نام، ویب سائٹ یا خدمت کے تحت کام کرتی ہے تو قانونی اور اخلاقی ذمہ داری
انسانوں اور اداروں ہی پر عائد ہوتی ہے۔
AI کا ایک بڑا خطرہ یہی ہے کہ لوگ اس کے فیصلوں کو “مشینی
غیر جانبداری” سمجھ کر بلا تنقید قبول کر لیتے ہیں، حالانکہ اصل جواب دہی ہمیشہ
انسانی ہونی چاہیے۔
AI
کا دوسرا بڑا خطرہ جمہوری عمل اور معلوماتی فضا کی
آلودگی ہے۔ 2024 میں امریکہ میں Biden کی
آواز کی نقل پر مبنی AI-generated robocalls کا
واقعہ سامنے آیا، جن کا مقصد ووٹروں کو گمراہ کرنا تھا۔ اس معاملے پر امریکی FCC نے کارروائی کی اور بعد میں لاکھوں
ڈالر جرمانہ بھی عائد کیا۔ یہ واقعہ واضح کرتا ہے کہ
generative AI محض تفریحی
deepfake بنانے کا آلہ نہیں؛ یہ سیاسی مداخلت،
انتخابی فریب، reputational harm اور
عوامی اعتماد کی تباہی کا ذریعہ بھی بن سکتی ہے۔ جب ایک مصنوعی آواز کسی قومی
رہنما کی طرح سنائی دے، تو عام آدمی کے لیے حقیقت اور جعل سازی میں فرق کرنا مشکل
ہو جاتا ہے۔ یہی وہ مقام ہے جہاں AI،
آزادیٔ اظہار کے بجائے، شعوری دھوکے اور نفسیاتی
manipulation کا ہتھیار بن سکتی ہے۔
تیسرا بڑا چیلنج تعصب، نگرانی اور انسانی حقوق کا
ہے۔ امریکی FTC نے Rite Aid کے
facial recognition surveillance استعمال پر کارروائی کرتے
ہوئے کمپنی کو پانچ سال کے لیے ایسی ٹیکنالوجی کے استعمال سے روکا، کیونکہ ادارہ
مناسب safeguards نافذ
کرنے میں ناکام رہا اور صارفین کو نقصان پہنچا۔ یہ واقعہ ہمیں بتاتا ہے کہ AI اگر چہرہ شناسی، predictive
policing، یا
mass surveillance میں بلا احتیاط استعمال ہو تو کمزور
طبقات، اقلیتوں اور عام شہریوں کی آزادی خطرے میں پڑ سکتی ہے۔ الگورتھم کا تعصب
صرف تکنیکی خرابی نہیں؛ یہ سماجی ناانصافی کو خودکار شکل دینے کا ذریعہ بن سکتا
ہے۔
AI
کے بارے میں جدید عالمی فریم ورکس بھی یہی کہتے ہیں کہ
اصل مسئلہ “ٹیکنالوجی” نہیں بلکہ “گورننس” ہے۔
NIST کا
AI Risk Management Framework اور اس کا 2024 Generative AI Profile اداروں کو یہ
رہنمائی دیتا ہے کہ generative AI کے
منفرد خطرات — مثلاً hallucinations،
privacy
leakage، harmful content، misuse،
اور security risks — کو
منظم انداز میں identify اور mitigate کیا جائے۔ OECD نے
AI incidents monitor اور 2025 کے common reporting framework کے
ذریعے اس بات پر زور دیا کہ AI سے
متعلق نقصانات کا باقاعدہ اور معیاری اندراج ہونا چاہیے، کیونکہ غیر منظم یا مبہم
رپورٹنگ کی وجہ سے دنیا ایک ہی غلطی بار بار دہراتی ہے۔ دوسرے لفظوں میں، AI
کا سب سے بڑا حفاظتی حصار “اچھا ارادہ” نہیں بلکہ measurable
governance ہے۔
قانونی دنیا بھی اب اس چیلنج کو سنجیدگی سے لے رہی ہے۔
یورپی یونین کا AI Act یکم
اگست 2024 کو نافذ ہوا، اور 2 فروری 2025 سے unacceptable-risk AI practices پر
پابندیوں کا اطلاق شروع ہوا۔ یہ قانون اس بات کی علامت ہے کہ دنیا محض AI innovation کے جشن میں مصروف نہیں؛
بلکہ اس کے لیے ضابطہ، درجہ بندی، transparency obligations، اور accountability regimes بھی
بنا رہی ہے۔ اس قانون کا بنیادی پیغام یہ ہے کہ ہر
AI برابر نہیں: کچھ
low-risk ہیں، کچھ
high-risk، اور کچھ ایسے ہیں جنہیں سرے سے ممنوع ہونا
چاہیے۔ یہی تفریق مستقبل کے AI دور
میں بہت اہم ہوگی۔
ایک اور اہم پہلو ماحولیاتی و توانائیاتی بوجھ ہے۔
اگرچہ Stanford AI Index 2025 یہ
دکھاتا ہے کہ AI hardware میں energy efficiency بہتر ہو رہی ہے،
لیکن International Energy Agency نے
2025 کی اپنی analysis میں
خبردار کیا کہ AI کی
وجہ سے high-performance servers اور data centers کی بجلی طلب میں نمایاں
اضافہ ہو سکتا ہے۔ UNEP نے
بھی AI کے
مکمل lifecycle کے environmental impact پر توجہ دلائی ہے۔
اس کا مطلب یہ ہے کہ AI ایک
طرف بہتر planning،
transport
optimization اور
energy management کے ذریعے ماحول کے لیے مفید ثابت ہو
سکتی ہے، مگر دوسری طرف اگر compute hunger اور data-center expansion بے قابو ہو جائیں
تو یہ پانی، توانائی اور carbon footprint پر
دباؤ بھی بڑھا سکتی ہے۔ لہٰذا AI کی
پائیداری (sustainability) بھی
انسانی کنٹرول کے ایجنڈے کا لازمی حصہ ہے۔
ان تمام حقائق کی روشنی میں یہ کہنا درست ہوگا کہ AI نہ خالصتاً رحمت ہے اور نہ مکمل زحمت؛
یہ طاقت ہے، اور ہر طاقت کی طرح اس کی قدر و قیمت اس بات سے متعین ہوتی ہے
کہ اسے کون، کیسے، کس مقصد سے اور کس نگرانی کے تحت استعمال کرتا ہے۔ اگر AI کو صرف منافع، رفتار اور مارکیٹ dominance کے لیے چھوڑ دیا گیا تو
یہ misinformation،
بے روزگاری کے دباؤ، طاقت کے ارتکاز، سماجی نگرانی، اور انسانی خودمختاری کے زوال
کا سبب بن سکتی ہے۔ لیکن اگر اسے اخلاق، قانون، شفافیت، auditability، human oversight،
public-interest
design، اور
equitable access کے اصولوں کے ساتھ آگے بڑھایا گیا تو
یہی AI طب،
تعلیم، تحقیق، انتظام، معیشت اور انسانی خدمت کے میدان میں حیرت انگیز انقلاب برپا
کر سکتی ہے۔ UNESCO اور WHO جیسے ادارے اسی انسان-مرکوز اصول پر
زور دیتے ہیں کہ AI انسان
کی خدمت کرے، انسان AI کی
غلامی میں نہ جائے۔
میری رائے میں اصل سوال
“AI کو روکا جائے یا نہیں” نہیں ہے، بلکہ یہ ہے
کہ AI کو انسانی وقار،
اخلاقی حدود، قانونی جواب دہی، اور اجتماعی بھلائی کے تابع کیسے رکھا جائے۔
ایک عمدہ AI معاشرہ
وہ ہوگا جہاں الگورتھم فیصلہ کرے مگر آخری اختیار انسان کے پاس ہو؛ مشین تجویز دے
مگر ذمہ داری انسان اٹھائے؛ نظام تیز ہو مگر انصاف قربان نہ ہو؛ ترقی بڑھے مگر سچ،
آزادی اور انسانیت مجروح نہ ہوں۔ اسی توازن میں مستقبل کی کامیابی ہے۔ پس، مصنوعی
ذہانت واقعی ترقی کی بلند اڑان بھی ہے — مگر صرف اسی وقت جب اس کے پروں پر انسانی
عقل، اخلاق اور کنٹرول کا ہاتھ موجود ہو۔ ورنہ یہی پرواز انسان کو اس بلندی پر لے
جا سکتی ہے جہاں سے واپسی مشکل ہو جائے۔
تبصرے
ایک تبصرہ شائع کریں