سہولت کے پیچھے چھپی حیران کُن حقیقتیں
تحریر:ڈاکٹرظہوراحمددانش
دنیا ایک ایسے موڑ پر کھڑی ہے جہاں مصنوعی ذہانت، یعنی
اے آئی، محض ایک تکنیکی ایجاد نہیں رہی بلکہ یہ معیشت، تعلیم، طب، میڈیا، روزگار،
سیاست، سکیورٹی، اور انسانی فیصلوں کے ڈھانچے میں خاموشی سے داخل ہو چکی ہے۔ چند
برس پہلے تک لوگ اے آئی کو ایک مددگار سافٹ ویئر سمجھتے تھے، مگر آج یہ تحریر لکھ
سکتی ہے، تصویر بنا سکتی ہے، آواز کی نقل کر سکتی ہے، ویڈیو گھڑ سکتی ہے، کوڈ تیار
کر سکتی ہے، طبی اشارے پڑھ سکتی ہے، اور کاروباری فیصلوں کو متاثر کر سکتی ہے۔ Stanford AI Index 2025 کے
مطابق 2024 میں 78 فیصد اداروں نے کسی نہ کسی درجے میں اے آئی کا استعمال رپورٹ
کیا، جبکہ جنریٹو اے آئی میں عالمی نجی سرمایہ کاری 33.9 ارب ڈالر تک پہنچ گئی۔
یہی نہیں، امریکہ میں نجی AI سرمایہ
کاری 109.1 ارب ڈالر رہی، جو چین اور برطانیہ سے کہیں زیادہ تھی۔
اس تیز رفتار ترقی کا پہلا حیران کُن پہلو یہ ہے کہ اے
آئی اب انسان کی صرف مدد نہیں کر رہی، بلکہ بعض مخصوص میدانوں میں انسان سے بہتر
کارکردگی دکھا رہی ہے۔ Stanford AI Index 2025 کے
مطابق کئی تکنیکی بنچ مارکس میں اے آئی نے انسانی معیار کو عبور کیا ہے، خصوصاً
تصویر شناخت، بعض زبان فہمی کے کاموں، اور محدود دائرے کے علمی ٹیسٹوں میں؛ البتہ
پیچیدہ استدلال، مضبوط سیاقی فہم، اور عمومی دنیاوی بصیرت میں ابھی نمایاں
کمزوریاں باقی ہیں۔ اس کا مطلب یہ ہے کہ اے آئی ایک ہی وقت میں “بہت ذہین” بھی نظر
آ سکتی ہے اور “انتہائی ناسمجھ” بھی۔ یہی تضاد اسے خطرناک حد تک پُرکشش بناتا ہے:
انسان اس کی روانی، اعتماد، اور رفتار سے مرعوب ہو جاتا ہے، حالاں کہ اس کے جواب
میں غلطی، تعصب، یا سرے سے گھڑی ہوئی بات بھی شامل ہو سکتی ہے۔
دل و دماغ کو جھنجھوڑ دینے والی حقیقت یہ ہے کہ اے آئی
کی سب سے بڑی طاقت اس کا “یقین کے ساتھ غلط بات کہنا” ہے۔
NIST کی
Generative AI Risk Management Profile میں واضح کیا گیا
ہے کہ جنریٹو اے آئی کے نمایاں خطرات میں ہیلوسینیشن، یعنی خود ساختہ یا بے بنیاد
جواب، گمراہ کن مواد، تعصب، رازداری کے مسائل، اور جعل سازی کے نئے امکانات شامل
ہیں۔ یہی وجہ ہے کہ آج مسئلہ صرف یہ نہیں رہا کہ “مشین کیا کر سکتی ہے؟” بلکہ اصل
سوال یہ ہے کہ “لوگ مشین کی بات پر کتنا یقین کر بیٹھیں گے؟” جب غلطی اعتماد کے
لہجے میں پیش کی جائے تو اس کا اثر عام غلطی سے کہیں زیادہ شدید ہوتا ہے۔
اس انقلاب کا دوسرا چونکا دینے والا پہلو روزگار ہے۔
اکثر لوگ سمجھتے ہیں کہ اے آئی صرف فیکٹری یا مشینی کام متاثر کرے گی، لیکن تازہ
عالمی تحقیقات اس کے برعکس تصویر دکھاتی ہیں۔
ILO کی 2025 اپڈیٹ کے مطابق دنیا بھر میں
ملازمتوں کا ایک بڑا حصہ جنریٹو اے آئی کی زد میں ہے، اور دفتری، کلریکل اور بعض
پروفیشنل و تکنیکی شعبے سب سے زیادہ متاثر ہو رہے ہیں۔
ILO نے یہ بھی واضح کیا کہ خواتین، خاص طور پر
ہائی اِنکم معاشروں میں، نسبتاً زیادہ خطرے سے دوچار ہیں کیونکہ بہت سے انتظامی
اور دفتری کام انہی شعبوں میں مرتکز ہیں جہاں جنریٹو اے آئی تیزی سے داخل ہو رہی
ہے۔ اسی تناظر میں World Economic Forum کی Future of Jobs Report 2025 کے
مطابق 2030 تک 170 ملین نئی ملازمتیں پیدا ہونے کی توقع ہے، لیکن ساتھ ہی 92 ملین
کردار ختم یا شدید تبدیل بھی ہو سکتے ہیں۔ یعنی مسئلہ “روزگار مکمل ختم” ہونے کا
نہیں، بلکہ “روزگار کی شکل بدل” جانے کا ہے—اور تاریخ بتاتی ہے کہ تبدیلی ہمیشہ سب
لوگوں کے حق میں یکساں نہیں ہوتی۔
یہاں ایک نہایت اہم حقیقت سمجھنے کی ہے: اے آئی سب سے
پہلے کمزور انسان کو نہیں، بلکہ “قاعدے کے مطابق کام کرنے والے” انسان کو بدلتی
ہے۔ جو کام بار بار ایک جیسے انداز سے ہوتا ہے، جس میں زبان، خلاصہ، درجہ بندی،
رپورٹنگ، شیڈولنگ، ابتدائی ڈرافٹنگ، یا دستاویزی ترتیب شامل ہو—وہ سب خطرے میں
ہیں۔ اس کے برعکس، وہ انسان زیادہ قیمتی ہوتا جا رہا ہے جو سیاق سمجھتا ہو، اخلاقی
فیصلہ کر سکتا ہو، انسانی نفسیات سے واقف ہو، اور ذمہ داری اٹھا سکتا ہو۔ یوں اے
آئی نے محنت کی دنیا میں ایک خاموش تقسیم پیدا کر دی ہے: صرف معلومات رکھنے والا
فرد کمزور ہو رہا ہے، جبکہ بصیرت، نگرانی، اور اخلاقی فیصلہ رکھنے والا فرد زیادہ
اہم بنتا جا رہا ہے۔ یہ تبدیلی صرف معاشی نہیں، تہذیبی بھی ہے۔
تیسرا اور نہایت ہولناک پہلو “سچ” کا بحران ہے۔ پہلے
جھوٹ بولنے کے لیے کسی حد تک مہارت درکار ہوتی تھی؛ اب ایک عام شخص بھی چند منٹ
میں جعلی تصویر، مصنوعی آواز، اور گمراہ کن ویڈیو بنا سکتا ہے۔ UNESCO کی 2024 پالیسی پرائمر کے
مطابق دستیاب ڈیپ فیک ویڈیوز کی غالب اکثریت غیر رضامندانہ جنسی مواد پر مشتمل
رہی، اور اس مسئلے کا نشانہ غیر متناسب طور پر خواتین بنیں۔ یہی وہ مقام ہے جہاں
اے آئی صرف “ٹیکنالوجی” نہیں رہتی بلکہ عزت، شہرت، حیا، اعتماد، اور سماجی امن پر
حملہ بن جاتی ہے۔
ڈیپ فیک کا خطرہ محض انٹرنیٹ کی شرارت نہیں رہا؛ یہ
مالی فراڈ، سیاسی فریب، اور شناختی جعل سازی کا ہتھیار بن چکا ہے۔ امریکی FTC نے واضح کیا کہ وائس کلوننگ کے ذریعے
دھوکے باز کسی عزیز، باس، یا جان پہچان والے کی آواز بنا کر فوری رقم یا حساس
معلومات حاصل کرنے کی کوشش کرتے ہیں۔ FBI نے
2025 میں خبردار کیا کہ اے آئی سے تیار کردہ متن اور آواز استعمال کر کے اعلیٰ
حکام کی نقالی کی گئی تاکہ لوگوں کا اعتماد جیت کر اکاؤنٹس اور معلومات تک رسائی
حاصل کی جا سکے۔ یہ وہ مرحلہ ہے جہاں انسان اپنے کانوں پر بھی یقین نہیں کر سکتا۔ کبھی
کہا جاتا تھا “میں نے اپنی آنکھوں سے دیکھا ہے”، مگر اب تصویر اور ویڈیو بھی دلیل
نہیں رہیں۔
چوتھا پہلو طب اور صحت کا ہے، اور یہ بیک وقت امید افزا
بھی ہے اور تشویش ناک بھی۔ WHO نے
2024 اور 2025 کی اپنی رہنمائی میں بتایا کہ بڑی ملٹی ماڈل اے آئی سسٹمز صحت،
تحقیق، دواؤں کی تیاری، اور عوامی صحت میں بڑی مدد دے سکتے ہیں، لیکن ان کے ساتھ
غلط طبی مشورہ، تعصب، رازداری کی خلاف ورزی، اور ذمہ داری کے ابہام جیسے سنگین
خطرات بھی وابستہ ہیں۔ ایک طبی ماہر اگر غلطی کرے تو اس کی تربیت، اسناد، اور جواب
دہی کا نظام موجود ہوتا ہے؛ لیکن اگر مریض ایک خوش بیان اے آئی جواب پر اعتماد کر
بیٹھے تو نقصان کا بوجھ کس پر آئے گا؟ یہ سوال ابھی پوری دنیا میں مکمل طور پر حل
نہیں ہوا۔
تعلیم میں بھی تصویر ایسی ہی ہے۔
UNESCO کی رہنمائی کے مطابق جنریٹو اے آئی تدریس،
تحقیق، ذاتی نوعیت کی سیکھنے کی مدد، اور تعلیمی مواد کی تیاری میں مددگار ہو سکتی
ہے، مگر اسے استاد، تنقیدی فکر، اور انسانی تربیت کا متبادل نہیں بننا چاہیے۔ اصل
خطرہ یہ ہے کہ طالب علم معلومات تو جلد حاصل کر لے، لیکن سوچنے، پرکھنے، دلیل
بنانے، اور علمی دیانت کی عادت کمزور پڑ جائے۔ علم اگر محض “تیار جواب” بن جائے تو
ذہن کی ریاضت ختم ہونے لگتی ہے۔ یہ سہولت بظاہر نعمت ہے، مگر اگر نگرانی نہ ہو تو
یہی سہولت ذہنی سستی اور فکری انحصار میں بدل سکتی ہے۔
پانچواں پہلو، جس پر عام گفتگو بہت کم ہوتی ہے، اے آئی
کی توانائی اور ماحولیاتی قیمت ہے۔ International Energy Agency کی
2025 رپورٹ کے مطابق ڈیٹا سینٹرز کی بجلی کی طلب 2030 تک دوگنی سے زیادہ ہو کر
تقریباً 945 ٹیراواٹ آور تک پہنچ سکتی ہے، اور اس اضافے میں اے آئی بنیادی محرکات
میں شامل ہے۔ IEA نے
یہ بھی اشارہ دیا کہ امریکہ میں 2030 تک بجلی کی طلب میں اضافے کا تقریباً نصف حصہ
ڈیٹا سینٹرز سے منسلک ہو سکتا ہے۔ یعنی ہم جس “سمارٹ” دنیا کی تعریف کر رہے ہیں،
وہ پسِ پردہ بے پناہ توانائی، کولنگ، انفراسٹرکچر، اور وسائل کھا رہی ہے۔ یوں اے
آئی صرف کمپیوٹر اسکرین کا معاملہ نہیں، بلکہ بجلی گھر، پانی، گرڈ، اور ماحولیاتی
پائیداری کا سوال بھی ہے۔
اس سب کے باوجود تصویر یک رُخی نہیں۔ اے آئی نے سائنس
اور تحقیق میں غیر معمولی امکانات بھی پیدا کیے ہیں۔ پروٹین اسٹرکچر کی پیش گوئی
جیسے میدان میں پہلے ہی بڑے سائنسی انقلابات سامنے آ چکے ہیں، اور صحت و تحقیق کے
کئی شعبوں میں اے آئی پیچیدہ مسائل کو تیز رفتاری سے سمجھنے میں مدد دے رہی ہے۔
اسی لیے دانشمندی کا تقاضا یہ نہیں کہ اے آئی سے خوفزدہ ہو کر اسے رد کر دیا جائے،
بلکہ یہ ہے کہ اس کی افادیت اور اس کے فتنہ، دونوں کو بیک وقت دیکھا جائے۔
اصل مسئلہ یہ ہے کہ اے آئی جتنی تیزی سے آگے بڑھ رہی
ہے، انسانی اخلاق، قانون، تعلیم، اور سماجی شعور اتنی رفتار سے ساتھ نہیں چل رہے۔ Stanford AI Index 2025 نے
بھی نشاندہی کی کہ کاروباری استعمال تیزی سے بڑھ رہا ہے، مگر ذمہ دارانہ AI کے میدان میں خلا برقرار ہے۔ OECD نے
AI Incidents Monitor اور مشترک رپورٹنگ فریم
ورک کے ذریعے اس بات پر زور دیا ہے کہ اے آئی سے پیدا ہونے والے نقصانات کو
باقاعدہ طور پر ریکارڈ، سمجھا، اور منظم کیا جائے۔ جب ایک ٹیکنالوجی معاشرے میں اس
رفتار سے پھیلتی ہے کہ اس کے حادثات گننے کے لیے الگ نظام بنانا پڑے، تو سمجھ لینا
چاہیے کہ ہم ایک نئے عہد میں داخل ہو چکے ہیں۔
خلاصہ یہ ہے کہ مصنوعی ذہانت صرف سہولت کا نام نہیں۔ یہ رفتار ہے، مگر اس کے ساتھ بے احتیاطی بھی آ سکتی ہے۔ یہ علم تک رسائی ہے، مگر اس کے ساتھ سطحیت بھی آ سکتی ہے۔ یہ تخلیق ہے، مگر اس کے ساتھ جعل سازی بھی۔ یہ معیشت کو طاقت دیتی ہے، مگر عدم مساوات بھی بڑھا سکتی ہے۔ یہ علاج میں مدد دیتی ہے، مگر غلط اعتماد جان لیوا بھی ہو سکتا ہے۔ اور شاید سب سے بڑھ کر، یہ انسان کو یہ دھوکا دے سکتی ہے کہ “اب مشین سوچنے لگی ہے”، حالاں کہ حقیقت یہ ہے کہ ذمہ داری اب بھی انسان ہی کے کندھوں پر ہے۔ UNESCO کی اخلاقی سفارشات، WHO کی طبی ہدایات، NIST کے رسک فریم ورک، ILO کے روزگار کے تجزیات، WEF کے مستقبلِ ملازمت کے اشاریے، اور IEA کے توانائی کے اعداد و شمار مل کر ایک ہی پیغام دیتے ہیں: اے آئی کا سوال صرف ٹیکنالوجی کا نہیں، انسانیت کے مستقبل کا سوال ہے۔
تبصرے
ایک تبصرہ شائع کریں