মধ্যে ঘোষণা করা হয় Microsoft প্রজ্বলিত 2023, আজুর এআই স্পিচ মানুষের ছবিগুলিতে প্রশিক্ষণ দেওয়া হয় এবং ব্যবহারকারীদের একটি স্ক্রিপ্ট ইনপুট করার অনুমতি দেয় যা তারপর একটি অবতার দ্বারা উচ্চস্বরে "পড়তে" পারে fotorবাস্তবসম্মত এআই দিয়ে তৈরি।
বিজ্ঞাপন
ব্যবহারকারীরা একটি প্রি-লোড অবতার থেকে বেছে নিতে পারেন Microsoft অথবা একজন ব্যক্তির ছবি আপলোড করুন যার ভয়েস এবং ছবি তারা প্রতিলিপি করতে চায়। ক Microsoft একটিতে বলেছেন ব্লগ বুধবার (15) প্রকাশিত হয়েছে যে টুলটি "কথোপকথনমূলক এজেন্ট, ভার্চুয়াল সহকারী, চ্যাটবট এবং আরও অনেক কিছু" তৈরি করতে ব্যবহার করা যেতে পারে।
deepfake সৃষ্টিকর্তা
সংস্থাটি বলেছে যে নতুন টেক্সট-টু-স্পিচ সফ্টওয়্যারটি অপব্যবহার রোধে বিভিন্ন সীমা এবং সুরক্ষার সাথে প্রকাশ করা হচ্ছে। “প্রতিশ্রুতির অংশ হিসাবে Microsoft দায়িত্বশীল এআই-এর সাহায্যে টেক্সট-টু-স্পিচ অবতারটি স্বচ্ছ মানব-কম্পিউটার মিথস্ক্রিয়া প্রচার করে এবং ক্ষতিকারক ডিপফেক এবং বিভ্রান্তিকর বিষয়বস্তুর বিস্তারকে প্রতিরোধ করার মাধ্যমে ব্যক্তি ও সমাজের অধিকার রক্ষার অভিপ্রায়ে ডিজাইন করা হয়েছিল,” বলেছে। Microsoft.
ঘোষণাটি দ্রুত সমালোচনার জন্ম দেয় যে Microsoft ছিল মুক্তি একটি "ডিপফেক স্রষ্টা" - যা একজন ব্যক্তির চিত্রকে আরও সহজে প্রতিলিপি করতে এবং এমন কিছু বলতে এবং করতে বাধ্য করে যা ব্যক্তি বলেননি বা করেননি৷
বিজ্ঞাপন
একটি বিবৃতিতে, সংস্থাটি সমালোচনাকে প্রত্যাখ্যান করে বলেছে যে কাস্টম অবতারগুলি এখন একটি "সীমিত অ্যাক্সেস" সরঞ্জাম যা গ্রাহকদের অবশ্যই সাইন আপ করতে হবে এবং অনুমোদিত হতে হবে। Microsoft. কৃত্রিম ভয়েস বা অবতার তৈরি করতে কখন AI ব্যবহার করা হয়েছে তাও ব্যবহারকারীদের প্রকাশ করতে হবে।
আরও পড়ুন: