হোয়াইট হাউস প্রযুক্তি শিল্পকে যৌন নিপীড়নকারী এআই ডিপফেকের জন্য বাজার বন্ধ করার জন্য চাপ দিয়েছে

[ad_1]

রাষ্ট্রপতি জো বিডেনের প্রশাসন কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির সাহায্যে তৈরি আপত্তিজনক যৌন চিত্রগুলির একটি ক্রমবর্ধমান বাজার বন্ধ করার জন্য প্রযুক্তি শিল্প এবং আর্থিক প্রতিষ্ঠানগুলিকে চাপ দিচ্ছে।

নতুন জেনারেটিভ এআই টুলগুলি কারোর মতকে যৌনতাপূর্ণ AI ডিপফেকে রূপান্তরিত করা এবং সেই বাস্তবসম্মত ছবিগুলি চ্যাটরুম বা সোশ্যাল মিডিয়া জুড়ে শেয়ার করা সহজ করেছে৷ ভুক্তভোগীরা – তারা সেলিব্রেটিই হোন বা শিশুদের – এটা বন্ধ করার সামান্য উপায় আছে.

হোয়াইট হাউস ফেডারেল আইনের অনুপস্থিতিতে কোম্পানিগুলির কাছ থেকে স্বেচ্ছাসেবী সহযোগিতার জন্য বৃহস্পতিবার একটি কল করছে। নির্দিষ্ট ব্যবস্থার একটি সেটের প্রতিশ্রুতি দিয়ে, কর্মকর্তারা আশা করেন যে বেসরকারী খাত শিশুদের স্পষ্ট ছবি সহ এই ধরনের অসম্মত AI চিত্র তৈরি, বিস্তার এবং নগদীকরণ রোধ করতে পারে।

“যেমন জেনারেটিভ এআই দৃশ্যে ভেঙ্গেছিল, সবাই প্রথম প্রকৃত ক্ষতি কোথায় আসবে তা নিয়ে অনুমান করছিল। এবং আমি মনে করি আমাদের কাছে উত্তর আছে,” বলেছেন বিডেনের প্রধান বিজ্ঞান উপদেষ্টা আরতি প্রভাকর, হোয়াইট হাউসের বিজ্ঞান ও প্রযুক্তি নীতির অফিসের পরিচালক।

তিনি দ্য অ্যাসোসিয়েটেড প্রেসের কাছে বর্ণনা করেছেন AI সরঞ্জামগুলির দ্বারা অসম্মতিমূলক চিত্রের একটি “অসাধারণ ত্বরণ” এবং মূলত মহিলাদের এবং মেয়েদের এমনভাবে লক্ষ্যবস্তু করা যা তাদের জীবনকে উন্নীত করতে পারে৷

“আপনি যদি একটি কিশোরী মেয়ে হন, যদি আপনি একজন সমকামী বাচ্চা হন, এই সমস্যাগুলি যা মানুষ এখনই ভোগ করছে,” তিনি বলেছিলেন। “আমরা জেনারেটিভ এআই এর কারণে একটি ত্বরণ দেখেছি যা সত্যিই দ্রুত গতিতে চলছে। এবং সবচেয়ে দ্রুত যে জিনিসটি ঘটতে পারে তা হ’ল সংস্থাগুলিকে পদক্ষেপ নেওয়া এবং দায়িত্ব নেওয়া।”

বৃহস্পতিবার প্রকাশের আগে AP-এর সাথে শেয়ার করা একটি নথিতে শুধু এআই ডেভেলপারদের নয়, পেমেন্ট প্রসেসর, আর্থিক প্রতিষ্ঠান, ক্লাউড কম্পিউটিং প্রদানকারী, সার্চ ইঞ্জিন এবং গেটকিপারদের কাছ থেকে পদক্ষেপ নেওয়ার আহ্বান জানানো হয়েছে – যেমন অ্যাপল এবং গুগল – যা মোবাইল অ্যাপ স্টোরগুলিতে এটিকে নিয়ন্ত্রণ করে।

ব্যক্তিগত সেক্টরের উচিত ছবি-ভিত্তিক যৌন নির্যাতনের “নগদীকরণে ব্যাঘাত ঘটাতে” পদক্ষেপ নেওয়া উচিত, বিশেষ করে অপ্রাপ্তবয়স্কদের স্পষ্ট ছবি বিজ্ঞাপন দেয় এমন সাইটগুলিতে অর্থপ্রদানের অ্যাক্সেস সীমাবদ্ধ করে, প্রশাসন বলেছে।

প্রভাকর বলেন, অনেক পেমেন্ট প্ল্যাটফর্ম এবং আর্থিক প্রতিষ্ঠান ইতিমধ্যেই বলেছে যে তারা অপমানজনক চিত্র প্রচার করে এমন ধরনের ব্যবসাকে সমর্থন করবে না।

“কিন্তু কখনও কখনও এটি প্রয়োগ করা হয় না; কখনও কখনও তাদের পরিষেবার শর্তাদি থাকে না,” তিনি বলেছিলেন। “এবং তাই এটি এমন কিছুর একটি উদাহরণ যা আরও কঠোরভাবে করা যেতে পারে।”

ক্লাউড পরিষেবা প্রদানকারী এবং মোবাইল অ্যাপ স্টোরগুলি “ব্যক্তির সম্মতি ছাড়াই যৌন ছবি তৈরি বা পরিবর্তন করার উদ্দেশ্যে বাজারজাত করা ওয়েব পরিষেবা এবং মোবাইল অ্যাপ্লিকেশনগুলিকেও আটকাতে পারে,” নথিতে বলা হয়েছে।

এবং এটি AI-জেনারেটেড হোক বা ইন্টারনেটে রাখা একটি বাস্তব নগ্ন ছবি, বেঁচে থাকা ব্যক্তিরা আরও সহজে সেগুলি সরানোর জন্য অনলাইন প্ল্যাটফর্ম পেতে সক্ষম হবেন।

পর্নোগ্রাফিক ডিপফেক চিত্রগুলির সর্বাধিক পরিচিত শিকার হলেন টেলর সুইফ্ট, যার উত্সাহী ফ্যানবেস জানুয়ারিতে লড়াই করেছিল যখন গায়ক-গীতিকারের অপমানজনক এআই-জেনারেট করা ছবিগুলি সোশ্যাল মিডিয়ায় প্রচার শুরু হয়েছিল৷ মাইক্রোসফ্ট তার এআই ভিজ্যুয়াল ডিজাইন টুলে সুইফটের কিছু ছবি খুঁজে পাওয়ার পর তার সুরক্ষা ব্যবস্থা জোরদার করার প্রতিশ্রুতি দিয়েছে।

মার্কিন যুক্তরাষ্ট্রে এবং অন্য কোথাও ক্রমবর্ধমান সংখ্যক স্কুল রয়েছে এছাড়াও AI-উত্পাদিত সঙ্গে ঝাঁকুনি deepfake nudes তাদের ছাত্রদের চিত্রিত. কিছু ক্ষেত্রে, সহ-কিশোরদেরকে এআই-চালিত ছবি তৈরি করতে এবং সহপাঠীদের সাথে শেয়ার করতে দেখা গেছে।

গত গ্রীষ্মে, বিডেন প্রশাসন ব্রোকড স্বেচ্ছাসেবী প্রতিশ্রুতি অ্যামাজন, গুগল, মেটা, মাইক্রোসফ্ট এবং অন্যান্য বড় প্রযুক্তি সংস্থাগুলি দ্বারা নতুন এআই সিস্টেমগুলিকে সর্বজনীনভাবে প্রকাশ করার আগে সেগুলিকে রক্ষা করার জন্য।

এর পরে বিডেন একটি স্বাক্ষর করেছিলেন উচ্চাভিলাষী নির্বাহী আদেশ অক্টোবরে এআই কীভাবে বিকশিত হয় তা পরিচালনা করার জন্য ডিজাইন করা হয়েছে যাতে কোম্পানিগুলি জননিরাপত্তাকে ঝুঁকির মধ্যে না ফেলে লাভ করতে পারে। জাতীয় নিরাপত্তা সহ বৃহত্তর এআই উদ্বেগের উপর দৃষ্টি নিবদ্ধ করার সময়, এটি এআই-উত্পন্ন শিশু নির্যাতনের চিত্রের উদীয়মান সমস্যা এবং এটি সনাক্ত করার আরও ভাল উপায় খুঁজে বের করার জন্য মাথা ঘামায়।

তবে বিডেন আরও বলেছিলেন যে প্রশাসনের এআই সুরক্ষাগুলিকে আইন দ্বারা সমর্থন করা দরকার। মার্কিন সিনেটরদের একটি দ্বিদলীয় গোষ্ঠী এখন উন্নয়নের জন্য আগামী তিন বছরে কমপক্ষে $32 বিলিয়ন ব্যয় করতে কংগ্রেসকে চাপ দিচ্ছে কৃত্রিম বুদ্ধিমত্তা এবং তহবিল নিরাপদে গাইড করার ব্যবস্থাযদিও সেই সুরক্ষাগুলিকে আইনে পরিণত করার জন্য মূলত কল বন্ধ করে দিয়েছে৷

হোয়াইট হাউস জেন্ডার পলিসি কাউন্সিলের ডিরেক্টর জেনিফার ক্লেইন বলেন, কোম্পানিগুলোকে এগিয়ে যেতে এবং স্বেচ্ছাসেবী প্রতিশ্রুতি দেওয়ার জন্য উত্সাহিত করা “কংগ্রেসের এখানে পদক্ষেপ নেওয়ার অন্তর্নিহিত প্রয়োজনকে পরিবর্তন করে না।”

দীর্ঘদিনের আইনগুলি ইতিমধ্যেই শিশুদের যৌন ছবি তৈরি এবং ধারণকে অপরাধী করে, এমনকি যদি সেগুলি জাল হয়। ফেডারেল প্রসিকিউটররা এই মাসের শুরুতে উইসকনসিনের একজন ব্যক্তির বিরুদ্ধে অভিযোগ আনেন যে তারা বলেছিলেন যে যৌন আচরণে জড়িত নাবালকদের হাজার হাজার এআই-উত্পন্ন বাস্তবসম্মত চিত্র তৈরি করতে একটি জনপ্রিয় এআই ইমেজ-জেনারেটর, স্টেবল ডিফিউশন ব্যবহার করেছেন। লোকটির জন্য একজন অ্যাটর্নি বুধবার তার আর্জি শুনানির পর মন্তব্য করতে অস্বীকার করেন।

তবে প্রযুক্তির সরঞ্জাম এবং পরিষেবাগুলির উপর প্রায় কোনও নজরদারি নেই যা এই জাতীয় চিত্রগুলি তৈরি করা সম্ভব করে। কিছু ফ্লাই-বাই-রাইট বাণিজ্যিক ওয়েবসাইটে রয়েছে যেগুলি কে চালায় বা তারা যে প্রযুক্তির উপর ভিত্তি করে সে সম্পর্কে খুব কম তথ্য প্রকাশ করে।

স্ট্যানফোর্ড ইন্টারনেট অবজারভেটরি ডিসেম্বরে এটা বলেন দৈত্যাকার AI ডাটাবেস LAION-এ সন্দেহভাজন শিশু যৌন নির্যাতনের হাজার হাজার ছবি পাওয়া গেছে, অনলাইন ছবি এবং ক্যাপশনের একটি সূচক যা স্টেবল ডিফিউশনের মতো নেতৃস্থানীয় AI ইমেজ নির্মাতাদের প্রশিক্ষণ দিতে ব্যবহৃত হয়েছে।

লন্ডন-ভিত্তিক স্টেবিলিটি এআই, যা স্টেবল ডিফিউশনের সর্বশেষ সংস্করণগুলির মালিক, এই সপ্তাহে বলেছে যে এটি উইসকনসিন লোকের দ্বারা ব্যবহৃত পূর্বের মডেলটির “রিলিজ অনুমোদন করেনি”। এই ধরনের ওপেন-সোর্স মডেল, কারণ তাদের প্রযুক্তিগত উপাদানগুলি সর্বজনীনভাবে ইন্টারনেটে প্রকাশ করা হয়, বোতলে ফিরিয়ে রাখা কঠিন।

প্রভাকর বলেছিলেন যে এটি কেবল ওপেন-সোর্স এআই প্রযুক্তি নয় যা ক্ষতি করছে।

“এটি একটি বিস্তৃত সমস্যা,” তিনি বলেন. “দুর্ভাগ্যবশত, এটি এমন একটি বিভাগ যেটির জন্য অনেক লোক ইমেজ জেনারেটর ব্যবহার করছে বলে মনে হচ্ছে। এবং এটি এমন একটি জায়গা যেখানে আমরা এইমাত্র এমন একটি বিস্ফোরণ দেখেছি। কিন্তু আমি মনে করি এটি সুন্দরভাবে ওপেন সোর্স এবং মালিকানাধীন সিস্টেমে বিভক্ত নয়।”

——

এপি লেখক জোশ বোক এই প্রতিবেদনে অবদান রেখেছেন।



[ad_2]

Source link