சைபர் தாக்குதல்களுக்கு எதிராக தனது Atlas AI உலாவியை கடினப்படுத்த OpenAI உழைத்தாலும், அந்த உடனடி ஊசி, AI முகவர்களை வலைப்பக்கங்களில் அல்லது மின்னஞ்சல்களில் மறைந்திருக்கும் தீங்கிழைக்கும் வழிமுறைகளைப் பின்பற்றி ஏமாற்றும் ஒரு வகையான தாக்குதல், எந்த நேரத்திலும் மறைந்துவிடாத அபாயமாகும் – AI முகவர்களை எவ்வாறு பாதுகாப்பாக இயக்குவது என்பது பற்றிய கேள்விகளை எழுப்புகிறது.
“இணையத்தில் மோசடிகள் மற்றும் சமூகப் பொறியியலைப் போலவே, உடனடி ஊசி ஒரு முழுமையான ‘தீர்வாக’ இருக்க வாய்ப்பில்லை,” என்று OpenAI ஒரு திங்கட்கிழமை வலைப்பதிவு இடுகையில் விளக்கியது. ChatGPAT Atlas இல் உள்ள ‘Agent Mode’ “பாதுகாப்பு அச்சுறுத்தல் மேற்பரப்பை விரிவுபடுத்துகிறது” என்று நிறுவனம் ஒப்புக்கொண்டது.
OpenAI ஆனது அதன் ChatGPAT Atlas உலாவியை அக்டோபரில் அறிமுகப்படுத்தியது, மேலும் பாதுகாப்பு ஆராய்ச்சியாளர்கள் தங்கள் டெமோக்களை வெளியிட விரைந்தனர், இது Google டாக்ஸில் உள்ளமைக்கப்பட்ட உலாவியின் நடத்தையை மாற்றக்கூடிய சில சொற்களை எழுத முடியும் என்பதைக் காட்டுகிறது. அதே நாளில், ப்ரேவ் ஒரு வலைப்பதிவு இடுகையை வெளியிட்டார், இது மறைமுக உடனடி உட்செலுத்தலை AI-இயங்கும் உலாவிகளுக்கு ஒரு முறையான சவாலாக விவரிக்கிறது, இதில் Perplexity’s Comet உட்பட.
உடனடி அடிப்படையிலான ஊசிகள் மறைந்துவிடாது என்று OpenAI மட்டும் நம்பவில்லை. UK இன் தேசிய சைபர் பாதுகாப்பு மையம் இந்த மாத தொடக்கத்தில், பொதுவான AI பயன்பாடுகளுக்கு எதிரான உடனடி ஊசி தாக்குதல்களை “ஒருபோதும் முழுமையாக குறைக்க முடியாது” என்று எச்சரித்தது, இது தரவு மீறல்களுக்கு பலியாகும் அபாயத்தில் வலைத்தளங்களை வைக்கிறது. UK அரசாங்க நிறுவனம் சைபர் நிபுணர்களுக்கு உடனடி உட்செலுத்தலின் ஆபத்து மற்றும் தாக்கத்தை குறைக்க அறிவுறுத்தியது, மேலும் தாக்குதல்களை “தடுக்க முடியும்” என்று கருத வேண்டாம்.
OpenAI சார்பாக, நிறுவனம் கூறியது: “உடனடி ஊசியை நீண்ட கால AI பாதுகாப்பு சவாலாக நாங்கள் கருதுகிறோம், மேலும் அதற்கு எதிரான எங்கள் பாதுகாப்பை நாங்கள் தொடர்ந்து பலப்படுத்த வேண்டும்.”
இந்த Sisyphean பணிக்கு நிறுவனத்தின் பதில்? புதிய தாக்குதல் உத்திகளை “காடுகளில்” சுரண்டுவதற்கு முன், உள்நாட்டில் புதிய தாக்குதல் உத்திகளைக் கண்டறிய உதவுவதில் ஒரு செயலூக்கமான, விரைவான-பதில் சுழற்சி உறுதிமொழியைக் காட்டுகிறது என்று நிறுவனம் கூறுகிறது.
ஆந்த்ரோபிக் மற்றும் கூகிள் போன்ற போட்டியாளர்கள் சொல்வதில் இருந்து இது வேறுபட்டதல்ல: உடனடி அடிப்படையிலான தாக்குதல்களின் தொடர்ச்சியான ஆபத்தை எதிர்த்துப் போராட, பாதுகாப்புகள் அடுக்கி வைக்கப்பட வேண்டும் மற்றும் தொடர்ந்து அழுத்தத்தை சோதிக்க வேண்டும். எடுத்துக்காட்டாக, கூகிளின் சமீபத்திய பணி, முகவர் அமைப்புகளுக்கான கட்டடக்கலை மற்றும் கொள்கை அளவிலான கட்டுப்பாடுகளில் கவனம் செலுத்துகிறது.
ஆனால் ஓபன்ஏஐ அதன் “எல்எல்எம்-அடிப்படையிலான தானியங்கு தாக்குபவருடன்” வேறுபட்ட உத்தியை பின்பற்றுகிறது. இந்த தாக்குபவர் அடிப்படையில் OpenAI ஆனது வலுவூட்டல் கற்றலைப் பயன்படுத்தி பயிற்சி பெற்ற ஒரு போட் ஆகும், AI முகவருக்கு தீங்கிழைக்கும் வழிமுறைகளை வழங்குவதற்கான வழிகளைத் தேடும் ஹேக்கரின் பாத்திரத்தை வகிக்கிறது.
போட் தாக்குதலை நிஜமாகப் பயன்படுத்துவதற்கு முன்பு உருவகப்படுத்துதலில் சோதிக்க முடியும், மேலும் சிமுலேட்டர் இலக்கு AI எவ்வாறு சிந்திக்கும் மற்றும் தாக்குதலைக் கண்டால் என்ன நடவடிக்கைகள் எடுக்கும் என்பதைக் காட்டுகிறது. போட் அந்த பதிலைப் படித்து, தாக்குதலை மாற்றியமைத்து, மீண்டும் மீண்டும் முயற்சி செய்யலாம். இலக்கு AI இன் உள் தர்க்கத்தைப் பற்றிய நுண்ணறிவு என்பது வெளியாட்களுக்கு அணுகல் இல்லாத ஒன்று, எனவே, கோட்பாட்டில், OpenAI இன் போட் நிஜ-உலக தாக்குபவரை விட வேகமாக குறைபாடுகளைக் கண்டறிய முடியும்.
AI பாதுகாப்பு சோதனையில் இது ஒரு பொதுவான உத்தி: விளிம்பு நிலைகளைக் கண்டறிய ஒரு முகவரை உருவாக்கி, உருவகப்படுத்துதலில் அவற்றை விரைவாகச் சோதிக்கவும்.
“எங்கள் [reinforcement learning]”நன்கு பயிற்றுவிக்கப்பட்ட தாக்குபவர், பத்து (அல்லது நூற்றுக்கணக்கான) படிகளுக்கு மேல் வெளிப்படும் அதிநவீன, நீண்ட-அடிவான தீங்கு விளைவிக்கும் பணிப்பாய்வுகளை செயல்படுத்த ஒரு முகவரைத் தூண்ட முடியும்” என்று OpenAI எழுதியது. “எங்கள் மனித சிவப்பு குழு பிரச்சாரம் அல்லது வெளிப்புற அறிக்கைகளில் தோன்றாத புதிய தாக்குதல் உத்திகளையும் நாங்கள் கவனித்தோம்.”

ஒரு டெமோவில் (மேலே உள்ள படம்), ஓபன்ஏஐ அதன் தானியங்கி தாக்குபவர் ஒரு பயனரின் இன்பாக்ஸிற்கு தீங்கிழைக்கும் மின்னஞ்சலை எவ்வாறு அனுப்பியது என்பதைக் காட்டியது. AI முகவர் பின்னர் இன்பாக்ஸை ஸ்கேன் செய்தபோது, அது மின்னஞ்சலில் மறைந்திருக்கும் வழிமுறைகளைப் பின்பற்றி, அலுவலகத்திலிருந்து ஒரு பதிலை எழுதுவதற்குப் பதிலாக ராஜினாமா செய்தியை அனுப்பியது. ஆனால் பாதுகாப்பு புதுப்பித்தலுக்குப் பிறகு, நிறுவனத்தின் கூற்றுப்படி, “ஏஜென்ட் மோட்” மூலம் உடனடி ஊசி முயற்சியை வெற்றிகரமாகக் கண்டறிந்து அதை பயனருக்குக் கொடியிட முடிந்தது.
முட்டாள்தனமான முறையில் உடனடி ஊசியைப் பாதுகாப்பது கடினம் என்றாலும், நிஜ உலகத் தாக்குதல்களில் காண்பிக்கப்படுவதற்கு முன்பு அதன் அமைப்புகளை கடினப்படுத்த பாரிய சோதனை மற்றும் வேகமான பேட்ச் சுழற்சிகளை நம்பியுள்ளது என்று நிறுவனம் கூறுகிறது.
அட்லஸின் பாதுகாப்பிற்கான புதுப்பிப்புகள் வெற்றிகரமான ஊசிகளில் அளவிடக்கூடிய குறைப்பை ஏற்படுத்தியதா என்பதைப் பகிர OpenAI செய்தித் தொடர்பாளர் மறுத்துவிட்டார், ஆனால் நிறுவனம் தொடங்குவதற்கு முன்பிருந்தே அட்லஸை விரைவுபடுத்தப்பட்ட ஊசிகளுக்கு எதிராக கடினமாக்க மூன்றாம் தரப்பினருடன் இணைந்து செயல்பட்டு வருவதாகக் கூறுகிறார்.
சைபர் செக்யூரிட்டி நிறுவனமான விஸின் முதன்மை பாதுகாப்பு ஆராய்ச்சியாளர் ராமி மெக்கார்த்தி கூறுகையில், வலுவூட்டல் கற்றல் என்பது தாக்குபவர்களின் நடத்தைக்கு தொடர்ந்து மாற்றியமைப்பதற்கான ஒரு வழியாகும், ஆனால் அது படத்தின் ஒரு பகுதி மட்டுமே.
“AI அமைப்புகளில் ஆபத்தைப் பற்றி நியாயப்படுத்த ஒரு பயனுள்ள வழி, தன்னாட்சியை அடையக்கூடியதன் மூலம் பெருக்குவதாகும்” என்று மெக்கார்த்தி TechCrunch இடம் கூறினார்.
“ஏஜென்ட் உலாவிகள் அந்த இடத்தின் சவாலான பகுதியில் அமர்ந்துள்ளன: மிதமான சுயாட்சியுடன் மிக உயர்ந்த அணுகல்” என்று மெக்கார்த்தி கூறினார். “தற்போதைய பல பரிந்துரைகள் அந்த பரிமாற்றத்தை பிரதிபலிக்கின்றன. உள்நுழைவு அணுகலை கட்டுப்படுத்துவது வெளிப்பாட்டைக் குறைக்கிறது, அதே நேரத்தில் உறுதிப்படுத்தல் கோரிக்கைகளை மதிப்பாய்வு செய்வது சுயாட்சியைத் தடுக்கிறது.”
பயனர்கள் தங்கள் ஆபத்தைக் குறைப்பதற்கு OpenAI இன் இரண்டு பரிந்துரைகள் இவை, மேலும் செய்திகளை அனுப்புவதற்கு அல்லது பணம் செலுத்துவதற்கு முன் பயனர் உறுதிப்படுத்தலைப் பெறுவதற்கு அட்லஸ் பயிற்சி பெற்றிருப்பதாக ஒரு செய்தித் தொடர்பாளர் கூறினார். உங்கள் இன்பாக்ஸை அணுகுவதற்குப் பதிலாக, பயனர் முகவர்களுக்கு குறிப்பிட்ட வழிமுறைகளை வழங்குவதற்கும், “அவசியம் என்ன நடவடிக்கை எடுக்க வேண்டும்” என்று கூறுவதற்கும் OpenAI பரிந்துரைக்கிறது.
OpenAI இன் படி, “பாதுகாப்பு நடவடிக்கைகள் நடைமுறையில் இருந்தாலும் கூட, மறைந்திருக்கும் அல்லது தீங்கிழைக்கும் உள்ளடக்கம் முகவர்களை பாதிக்கும் வகையில் பரந்த அட்சரேகை எளிதாக்குகிறது.”
அட்லஸ் பயனர்களை உடனடி உட்செலுத்தலில் இருந்து பாதுகாப்பது முதன்மையானது என்று OpenAI கூறினாலும், அபாயகரமான உலாவிகளுக்கான முதலீட்டின் மீதான வருமானம் குறித்து மெக்கார்த்தி சில சந்தேகங்களை அழைக்கிறார்.
“பெரும்பாலான அன்றாட பயன்பாட்டு நிகழ்வுகளுக்கு, முகவர் உலாவிகள் அவற்றின் தற்போதைய ஆபத்து சுயவிவரத்தை நியாயப்படுத்த போதுமான மதிப்பை இன்னும் வழங்கவில்லை” என்று மெக்கார்த்தி டெக் க்ரஞ்சிடம் கூறினார். “மின்னஞ்சல் மற்றும் கட்டணத் தகவல் போன்ற முக்கியமான தரவுகளுக்கான அணுகலைக் கொடுத்தால், ஆபத்து அதிகமாக உள்ளது, அந்த அணுகல்தான் அவர்களை சக்திவாய்ந்ததாக ஆக்கினாலும் கூட. அந்த இருப்பு உருவாகும், ஆனால் இன்றும் வர்த்தக பரிமாற்றங்கள் மிகவும் உண்மையானவை.”