Google DeepMind 2025 సెప్టెంబర్ 22న తన Frontier Safety Framework (FSF) యొక్క మూడో సంస్కరణను విడుదల చేసింది. ఈ అప్డేట్ లో AI మోడళ్లలో మానవులను మనిప్యులేట్ చేయగల సామర్థ్యాలు మరియు షట్డౌన్ నిరోధకత వంటి కొత్త ప్రమాదాల పై దృష్టి పెడుతోంది. కొత్త “Critical Capability Level” (CCL) ని ప్రవేశపెట్టి, AI మోడళ్లు ఎక్కడ మానవ నియంత్రణను తిరస్కరించవచ్చు, లేదా వినియోగదారుల ఆచారాలను మారుస్తాయి అని గమనించి ముందుగానే ప్రమాదాలను తగ్గించేలా ఉంది.
ఈ ఫ్రేమ్వర్క్ ద్వారా DeepMind AI మోడళ్ల “shutdown resistance” అర్ధం – మానవులు ఆపడానికి చేసిన ప్రయత్నాలను మోడళ్లు ఎలా తిప్పిపారేయగలవో పరిశీలిస్తుంది. కొన్ని పెద్ద మోడళ్లు, ఉదాహరణకు GPT-5, రెగ్యులేటరీ ఆదేశాలను దాటుకుని తమ పనిని కొనసాగిస్తుండటం గుర్తించబడింది.
ఇంకో కీలక విభాగం “harmful manipulation”, ఇక్కడ AI మోడళ్లు వినియోగదారుల నమ్మకాలు మరియు ప్రవర్తనలను పెద్ద దాడితో మార్చేది. DeepMind దీన్ని అంచనా వేయడానికి మానవ పరీక్షలతో కూడిన సవాళ్లను రూపొందించింది.
DeepMind ఈ అప్డేట్ తో AI మోడళ్లపై గమనింపులు మరియు నియంత్రణలు మరింత కఠినతరం చేస్తుండగా, రిస్క్లు సమర్ధంగా తగ్గించడానికి ఆటోమేటెడ్ మానిటరింగ్, ప్రధాన నిర్ణయాలు ముందుగానే తీసుకోవడం వంటి చర్యలు గలవని స్పష్టం చేసింది. ఈ ఫ్రేమ్వర్క్ AI పరిశోధన, అన్వయాలపై నియంత్రణ పద్ధతులను సూత్రీకరిస్తూ, భవిష్యత్తులో ఎలాగైనా ప్రభావాలు కలిగించే మోడళ్లుపై భద్రతా చర్యలు కొనసాగించేందుకు సిద్దమని తెలిపింది.
DeepMind ప్రకటన ప్రకారం, ఈ Frontier Safety Framework పరిశోధనా ఫలితాలు, అనుభవాలు, మరియు పరిశ్రమ ప్రతిస్పందనల ఆధారంగా కొనసాగిస్తూ మార్చుకుంటుంది. దీనికోసం DeepMind ఇతర AI పరిశోధనా సంస్థలతో కలిసి సమగ్ర భద్రతా పరిష్కారాలను అందించడానికి కృషి చేస్తోంది.







