Google, Microsoft ও xAI-এর AI Model এখন সরকার আগে পরীক্ষা করবে

Google_Microsoft_ও_xAI

 

Google, Microsoft ও xAI-এর AI Model এখন সরকার আগে পরীক্ষা করবেো
প্রযুক্তি সংবাদ

AI Model এখন লঞ্চের আগেই সরকার পরীক্ষা করবে — Google, Microsoft ও xAI রাজি হলো

যুক্তরাষ্ট্র সরকার এখন unreleased AI model-এর national security testing করবে। জানুন কোন সংস্থা করবে, কীভাবে করবে, এবং এই সিদ্ধান্তের পেছনে কী কারণ।

✍ TechBDSowan 📅 মে ২০২৬ ⏱ ১২ মিনিট পড়ার সময় 🔖 AI নিরাপত্তা

কৃত্রিম বুদ্ধিমত্তার জগতে এখন যে গতিতে নতুন মডেল আসছে, তাতে সাধারণ মানুষ তো বটেই, সরকার ও নীতিনির্ধারকরাও রীতিমতো হাঁফিয়ে উঠেছেন। এই পরিস্থিতিতে যুক্তরাষ্ট্র সরকার একটি ঐতিহাসিক পদক্ষেপ নিল — বড় AI কোম্পানিগুলোর নতুন মডেল বাজারে আসার আগেই সরকারি সংস্থা সেগুলো পরীক্ষা করে দেখবে।

National Institute of Standards and Technology (NIST)-এর অধীনে থাকা Center for AI Standards and Innovation (CAISI) সম্প্রতি Google DeepMind, Microsoft এবং Elon Musk-এর xAI-এর সঙ্গে আনুষ্ঠানিক চুক্তি সই করেছে। এই চুক্তির আওতায়, এসব কোম্পানি তাদের এখনও প্রকাশিত হয়নি এমন AI মডেল সরকারকে দেখাবে — এবং CAISI সেগুলোর জাতীয় নিরাপত্তা ঝুঁকি যাচাই করবে।

G
Google DeepMind
Gemini ও অন্যান্য frontier মডেলের pre-deployment testing-এ রাজি
M
Microsoft
সরকারি বিজ্ঞানীদের সঙ্গে "unexpected behaviors" খুঁজে বের করতে কাজ করবে
X
xAI (Elon Musk)
Grok মডেলের national security evaluation-এ অংশগ্রহণ করবে

কেন এই সিদ্ধান্ত এখন?

সবচেয়ে বড় কারণ হলো Anthropic-এর সদ্য উন্মোচিত Mythos মডেল। এই মডেলটি এতটাই শক্তিশালী যে বিশেষজ্ঞরা উদ্বেগ প্রকাশ করেছেন — এটি সাইবার হামলার জন্য ব্যবহার করা যেতে পারে। এই উদ্বেগই White House-কে একটি formal review process তৈরির কথা ভাবাচ্ছে।

Georgetown-এর Center for Security and Emerging Technology-এর senior research analyst Jessica Ji বলেছেন, CAISI-এর কাছে বড় টেক কোম্পানিগুলোর মতো manpower, technical staff বা compute resource নেই। তাই এই partnership কাজটাকে আরও কার্যকর করবে — সরকার ও কোম্পানি মিলে একসঙ্গে পরীক্ষা চালাবে।

⚡ CAISI সম্পর্কে জানুন

  • এটি US Department of Commerce-এর অধীনে NIST-এর অংশ
  • এখন পর্যন্ত ৪০টিরও বেশি AI model evaluation সম্পন্ন করেছে
  • classified environment-এ testing করার সুবিধা রয়েছে
  • TRAINS Taskforce পরিচালনা করে — একটি interagency expert দল
  • পূর্বে OpenAI ও Anthropic-এর সঙ্গেও চুক্তি ছিল

পরীক্ষা কীভাবে হবে?

চুক্তির শর্ত অনুযায়ী, কোম্পানিগুলো তাদের মডেলের এমন সংস্করণ দেবে যেখানে safety guardrail সরানো বা কমানো থাকবে — যাতে CAISI আরও গভীরভাবে পরীক্ষা করতে পারে। এটি অনেকটা একটি গাড়ি crash test-এর মতো, যেখানে সবচেয়ে খারাপ পরিস্থিতি তৈরি করে দেখা হয় গাড়িটি কতটা সুরক্ষিত।

জুলাই ২০২৫
Trump administration প্রতিশ্রুতি দেয় — AI companies-এর সঙ্গে partnership করে মডেলের national security risk যাচাই করা হবে।
২০২৫ (আগে)
CAISI, OpenAI ও Anthropic-এর সঙ্গে প্রথম চুক্তি করে। ৪০+ model evaluation সম্পন্ন হয়।
এপ্রিল ২০২৬
Anthropic-এর Mythos মডেল সাইবার নিরাপত্তা নিয়ে উদ্বেগ তৈরি করে। White House formal review process নিয়ে ভাবতে শুরু করে।
৫ মে ২০২৬
CAISI, Google DeepMind, Microsoft ও xAI-এর সঙ্গে নতুন চুক্তি সই করে। Pre-deployment testing officially শুরু।

Trump প্রশাসনের অবস্থান পরিবর্তন

এটি উল্লেখযোগ্য কারণ Trump প্রশাসন শুরু থেকেই AI regulation-এর ব্যাপারে "light-touch" নীতি মেনে চলছিল। অর্থাৎ, বেশি নিয়মকানুন না করে কোম্পানিগুলোকে নিজেদের মতো করতে দেওয়া। কিন্তু AI-এর ক্ষমতা যত বাড়ছে, সেই নীতি থেকে সরে আসতে হচ্ছে।

Pentagon-ও এগিয়ে এসেছে — Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection ও SpaceX-এর সঙ্গে চুক্তি হয়েছে যাতে classified computer network-এ তাদের AI ব্যবহার করা যায়। তবে Anthropic এই Pentagon চুক্তি থেকে বাদ পড়েছে কারণ সামরিক ব্যবহারে তাদের guardrail সংক্রান্ত মতবিরোধ রয়েছে।

এই চুক্তির তাৎপর্য

The Futurum Group-এর AI platforms practice lead Nick Patience বলছেন, CAISI framework-এর এই সম্প্রসারণ একটি সংকেত দিচ্ছে — ভবিষ্যতে enterprise-level AI procurement-এর জন্য "sovereign alignment" একটি বাধ্যতামূলক মানদণ্ড হয়ে উঠবে। সহজ কথায়, সরকারি বা বড় প্রাতিষ্ঠানিক স্তরে কোনো AI কিনতে হলে সেটা আগে সরকারি নিরাপত্তা পরীক্ষায় উত্তীর্ণ হতে হবে।

Project Glasswing-এর মতো উদ্যোগও এই গভর্ন্যান্স আন্দোলনকে শক্তিশালী করছে — এটি Anthropic-এর একটি প্রকল্প যা software vulnerability খুঁজে বের করে সমাধান করে। এসব মিলিয়ে স্পষ্ট যে, AI শুধু একটি প্রযুক্তি নয় — এটি এখন জাতীয় নিরাপত্তার একটি অংশ।

🌐 বাংলাদেশের জন্য প্রাসঙ্গিকতা

  • বাংলাদেশের সরকারি সংস্থাগুলো যদি আন্তর্জাতিক AI সরঞ্জাম ব্যবহার করে, তবে নিরাপত্তা মানদণ্ড জানা জরুরি
  • দেশীয় fintech, healthtech ও edutech প্রতিষ্ঠানে AI ব্যবহারে গভর্ন্যান্স কাঠামো গড়া দরকার
  • ICT Division ও BTRC-এর AI নীতিমালা প্রণয়নে এই মডেল অনুসরণীয় হতে পারে
  • Bangladeshi developers-রা যারা OpenAI বা Google API ব্যবহার করেন, তাদের data privacy নিশ্চিত করতে হবে
❓ সচরাচর জিজ্ঞাসা (FAQ) — ১৫টি প্রশ্নোত্তর
CAISI কী এবং এটি কোন মন্ত্রণালয়ের অধীনে?
CAISI মানে Center for AI Standards and Innovation। এটি যুক্তরাষ্ট্রের Department of Commerce-এর অধীনে NIST (National Institute of Standards and Technology)-এর একটি বিভাগ। এই সংস্থাটি AI মডেলের নিরাপত্তা মান যাচাই করে এবং সরকারের প্রধান AI testing hub হিসেবে কাজ করে।
কোন কোন কোম্পানি এই চুক্তিতে রাজি হয়েছে?
Google DeepMind, Microsoft এবং Elon Musk-এর xAI এই চুক্তিতে রাজি হয়েছে। এর আগে OpenAI ও Anthropic-এর সঙ্গেও CAISI-এর পূর্ববর্তী চুক্তি ছিল।
Pre-deployment testing মানে কী?
Pre-deployment testing মানে হলো কোনো AI মডেল সাধারণ মানুষের কাছে পৌঁছানোর আগেই সরকারি সংস্থা সেটি পরীক্ষা করবে। এতে দেখা হয় মডেলটি কোনো বিপজ্জনক কাজে ব্যবহার করা যায় কিনা, যেমন সাইবার হামলা, অস্ত্র তৈরির নির্দেশনা ইত্যাদি।
Safety guardrail কী? কেন সেটি সরিয়ে পরীক্ষা করা হয়?
Safety guardrail হলো AI মডেলে যুক্ত করা বিধিনিষেধ যা মডেলকে ক্ষতিকর উত্তর দেওয়া থেকে বিরত রাখে। পরীক্ষার সময় এই guardrail সরিয়ে নেওয়া হয় যাতে মডেলের আসল ক্ষমতা ও দুর্বলতা যাচাই করা যায় — ঠিক যেমন গাড়ির টেস্টে সব সুরক্ষা সরিয়ে ক্র্যাশ টেস্ট করা হয়।
Anthropic-এর Mythos মডেল কেন এই চুক্তির পেছনে কারণ?
Anthropic-এর Mythos মডেল এতটাই শক্তিশালী যে এটি সাইবার হামলার জন্য ব্যবহার উপযোগী বলে আশঙ্কা তৈরি হয়। এই উদ্বেগই White House-কে দ্রুত একটি formal review process তৈরির চিন্তায় প্রবেশ করায় এবং CAISI-কে নতুন চুক্তিতে নিয়ে আসে।
TRAINS Taskforce কী?
TRAINS (Testing, Red-teaming, and AI National Security) Taskforce হলো CAISI পরিচালিত একটি interagency expert দল যেখানে বিভিন্ন সরকারি সংস্থার বিশেষজ্ঞরা একসঙ্গে AI মডেলের জাতীয় নিরাপত্তা ঝুঁকি মূল্যায়ন করেন।
এই চুক্তি কি বাধ্যতামূলক, নাকি ঐচ্ছিক?
এখন পর্যন্ত এটি সম্পূর্ণ স্বেচ্ছামূলক — কোম্পানিগুলো নিজেরা রাজি হয়ে চুক্তি করেছে। তবে White House একটি formal mandatory review process গড়ার কথা বিবেচনা করছে, যা ভবিষ্যতে বাধ্যতামূলক হতে পারে।
Microsoft কীভাবে এই testing-এ অংশ নেবে?
Microsoft সরকারি বিজ্ঞানীদের সঙ্গে কাজ করবে AI সিস্টেমের "unexpected behaviors" খুঁজে বের করতে। Natasha Crampton (Microsoft-এর Chief Responsible AI Officer) জানিয়েছেন, CAISI তাদের নিজস্ব testing-এর পাশাপাশি অতিরিক্ত technical ও national security expertise দেবে।
এই চুক্তির ফলে AI উদ্ভাবন বাধাগ্রস্ত হবে কি?
এটি নিয়ে মতভেদ আছে। চুক্তির ভাষায় বলা হয়েছে, এটি এমনভাবে তৈরি করা হয়েছে যাতে দ্রুত AI অগ্রগতির সঙ্গে তাল মিলিয়ে চলা যায়। অর্থাৎ নমনীয়তা রাখা হয়েছে। তবে সমালোচকরা মনে করেন, বাধ্যতামূলক testing একটি অতিরিক্ত বাধা তৈরি করতে পারে।
১০ Anthropic কেন Pentagon চুক্তি থেকে বাদ পড়ল?
Anthropic তাদের AI-এর সামরিক ব্যবহারে নিজস্ব ethical guardrail বজায় রাখতে চায়, কিন্তু Pentagon সেই guardrail ছাড়া ব্যবহার করতে চায়। এই মতবিরোধের কারণে Department of Defense Anthropic-কে security risk হিসেবে চিহ্নিত করেছে এবং তারা Pentagon-এর সাম্প্রতিক AI চুক্তি থেকে বাদ পড়েছে।
১১ AI national security testing কতটা গোপনীয়?
CAISI classified environment-এ testing করে, অর্থাৎ উচ্চ গোপনীয়তার মধ্যে। কোম্পানির মডেলের দুর্বলতা প্রকাশ পেলে তা যাতে শত্রুরা জানতে না পারে, তার জন্য এই গোপনীয়তা জরুরি। তবে সাধারণ ফলাফল ও নীতি সম্পর্কিত তথ্য প্রকাশ করা হয়।
১২ xAI-এর Grok মডেল কতটা নিরাপদ?
Grok-এর নিরাপত্তা নিয়ে আলাদাভাবে সরকারি মূল্যায়ন প্রকাশ্যে আসেনি। xAI এই নতুন চুক্তিতে রাজি হয়েছে, যার অর্থ তাদের ভবিষ্যৎ মডেল CAISI পরীক্ষা করবে। তবে xAI এই বিষয়ে মিডিয়ার কোনো প্রশ্নের উত্তর দেয়নি।
১৩ Sovereign alignment কী এবং এটি কেন গুরুত্বপূর্ণ?
Sovereign alignment মানে হলো একটি AI সিস্টেম দেশের আইন, নিরাপত্তা নীতি ও জাতীয় স্বার্থের সঙ্গে সামঞ্জস্যপূর্ণ কিনা তা নিশ্চিত করা। ভবিষ্যতে সরকারি বা বড় কর্পোরেট স্তরে AI কেনার ক্ষেত্রে এটি একটি বাধ্যতামূলক মানদণ্ড হয়ে উঠতে পারে।
১৪ অন্য দেশগুলো কি একইরকম AI নিরাপত্তা পরীক্ষা করে?
হ্যাঁ, যুক্তরাজ্য তাদের AI Safety Institute তৈরি করেছে এবং EU তাদের AI Act-এর মাধ্যমে high-risk AI-এর জন্য বাধ্যতামূলক মূল্যায়নের ব্যবস্থা করেছে। চীনও নিজস্ব AI নিবন্ধন ও পরীক্ষা প্রক্রিয়া চালু রেখেছে। যুক্তরাষ্ট্রের এই পদক্ষেপ অনেকটা যুক্তরাজ্যের model-কে অনুসরণ করছে।
১৫ সাধারণ ব্যবহারকারী হিসেবে আমার কী করা উচিত?
সরকারি testing থাকলেও ব্যক্তিগত সতর্কতা জরুরি। AI-কে সংবেদনশীল ব্যক্তিগত তথ্য দেবেন না। যেকোনো AI-জেনারেটেড তথ্য যাচাই করুন। এবং আপনি যে AI টুল ব্যবহার করেন সেটির privacy policy পড়ুন। নিরাপদ থাকুন, তথ্যে আপডেট থাকুন।
#AI Safety #Google #Microsoft #xAI #NIST #CAISI #National Security #Tech Policy #AI Regulation #Trump Administration

✍ লেখকের মন্তব্য

AI নিয়ন্ত্রণের এই নতুন যুগ শুরু হচ্ছে। সরকার ও কোম্পানির এই সহযোগিতা প্রথমবারের মতো একটি কাঠামোবদ্ধ রূপ পাচ্ছে। তবে প্রশ্ন থেকে যায় — testing কি যথেষ্ট? কোম্পানি কি সত্যিই সব কিছু দেখাবে? এবং এই প্রক্রিয়া কি AI-কে নিরাপদ করবে, নাকি শুধু কাগজে কলমে নিরাপদ দেখাবে? সময়ই বলে দেবে। আপাতত, এই প্রথম পদক্ষেপকে স্বাগত জানানো যায়।

কোন মন্তব্য নেই

RBFried থেকে নেওয়া থিমের ছবিগুলি. Blogger দ্বারা পরিচালিত.