வாஷிங்டன்: அமெரிக்க அதிபர் ஜோ பைடன், செயற்கை நுண்ணறிவு பயன்பாட்டை நெறிமுறை செய்வதற்கான உத்தரவு ஒன்றை திங்கட்கிழமை அன்று வெளியிட்டார். அமெரிக்க நாட்டில் நடைபெற்ற நிகழ்வு ஒன்றில் அவர் இதனை அறிவித்தார். அப்போது ஏஐ மூலம் உருவாக்கப்பட்ட தனது டீப் ஃபேக் வீடியோவை தான் பார்த்ததாகவும் தெரிவித்தார்.
“ஏஐ சாதனங்கள் மக்களை ஏமாற்ற பயன்படுத்தப்படுகின்றன. அது சங்கடம் தருகிறது. ஏஐ மூலம் உருவாக்கப்பட்ட ஆடியோ மற்றும் வீடியோவை கொண்டு டீப் ஃபேக் மூலமாக ஒருவரது நற்பெயருக்கு களங்கம் ஏற்படுத்தவும், மோசடி செய்யவும், போலி செய்திகளை பரப்பவும், குற்ற செயலில் ஈடுபடவும் செய்கின்றனர். ஒருவரின் மூன்று நொடி குரல் பதிவே இதற்கு போதும். அண்மையில் எனது டீப் ஃபேக் வீடியோவை நான் பார்த்தேன். ‘நான் எப்போது இதை சொன்னேன்’ என்று தான் அதை பார்த்ததும் நான் நினைத்தேன்” என தெரிவித்தார்.
இது தொடர்பாக வெள்ளை மாளிகை தரப்பில் அறிக்கை வெளியிடப்பட்டுள்ளது. ஏஐ பாதுகாப்பு சார்ந்த தரநிலைகளை நிறுவுவதன் மூலம் அமெரிக்கர்களின் தனியுரிமை பாதுகாக்கப்படுகிறது. பல்வேறு தரப்பு மக்களுக்கு செயற்கை நுண்ணறிவு பயன்பாட்டை நெறிமுறை பாதுகாப்பாக அமைகிறது. உலகம் முழுவதும் அமெரிக்க தலைமையை இது மேம்படுத்துகிறது.
இந்த உத்தரவின் மூலம் டெவலப்பர்கள், தங்களது பாதுகாப்பு சார்ந்த சோதனை முடிவுகள் மற்றும் முக்கிய தகவல்களை அமெரிக்க அரசுடன் பகிர்ந்து கொள்ள வேண்டும்.
மேலும் இதன் மூலம் தேசிய பாதுகாப்பு, பொருளாதாரப் பாதுகாப்பு, பொது சுகாதாரம் மற்றும் பாதுகாப்பு போன்றவை காக்கப்படுகிறது. இந்த நடைமுறையின் மூலம் ஏஐ பாதுகாப்பானது மற்றும் நம்பகத்தன்மை வாய்ந்தது என்பதை அதனை வடிவமைக்கும் நிறுவனங்கள் பொது பயன்பாட்டுக்கு வெளியிடுவதற்கு முன்பாக உறுதி செய்யப்படும். ஏஐ மூலம் உருவாக்கப்பட்ட கன்டென்ட் என்பதை அடையாளம் காணும் வகையிலான வாட்டர் மார்க்கிங் முறை மற்றும் அது சார்ந்த அங்கீகாரம் வழங்கப்பட உள்ளதாவும் தெரிவித்துள்ளது. ஏஐ சார்ந்த பயன்பாட்டை நெறிமுறை செய்வதற்கான கொள்கை அளவிலான முடிவுகள் அவசியம் என பல்வேறு தரப்பினர் வலியுறுத்தி வரும் நிலையில் ஜோ பைடன் அதை வெளிப்படையாக தெரிவித்துள்ளார் என்பது குறிப்பிடத்தக்கது.
Biden: “AI devices are being used to deceive people. Deepfakes use AI generated audio and video to smear reputations… I’ve watched one of me and said ‘when the hell did I say that?'” pic.twitter.com/sUeo09LWRx
— Greg Price (@greg_price11) October 30, 2023