- 2024 முதல் 2025 வரை
இங்கிலாந்தில் பல்கலைக்கழக மாணவர்களிடையே செயற்கை நுண்ணறிவு பயன்பாடு 66% லிருந்து 92% ஆக
உயர்ந்துள்ளது – ஒரே
வருடத்தில் 26 சதவீத
புள்ளிகள் அதிகரிப்பு
- 88% மாணவர்கள்
மதிப்பீட்டு பணிகளுக்கு உருவாக்கும் செயற்கை நுண்ணறிவை பயன்படுத்துகின்றனர் – கல்வி ஒருமைப்பாடு
குறித்த அவசர கேள்விகளை எழுப்புகிறது
- செயற்கை நுண்ணறிவு
தொடர்பான கல்வி முறைகேடு வழக்குகள் 400% அதிகரித்துள்ளன – பாரம்பரிய
கண்டறிதல் முறைகள் போதாமையை வெளிப்படுத்துகின்றன
- 55% பட்டதாரிகள்
தங்கள் கல்வி திட்டங்கள் செயற்கை நுண்ணறிவு கருவிகளைப் பயன்படுத்த அவர்களைத்
தயார்படுத்தவில்லை
என்று கூறுகின்றனர்
- 65% உயர்கல்வி
மாணவர்கள் செயற்கை நுண்ணறிவு கருவிகள் வெற்றிக்கு அவசியம் என்று
ஒப்புக்கொள்கின்றனர் – ஆனால் தெளிவான வழிகாட்டல்கள் இல்லாமல்
ஜெனரேட்டிவ்
AI வழக்கமான அர்த்தத்தில்
யோசனைகளைத் திருடுவதில்லை; ஒரு
ஆராய்ச்சியாளர் இருக்கும் இலக்கியங்களை புதிய நுண்ணறிவுகளாகத் தொகுப்பது போல, இது மனிதனால் உருவாக்கப்பட்ட
தரவுகளிலிருந்து (Human-produced
Data) எடுக்கப்பட்ட தகவல்களை மறுசீரமைக்கிறது. AI
என்பது ஒரு கருவி மட்டுமேயன்றி,
ஒரு முகவர் (Agent) அல்ல. அதன்
செயல்பாடுகள் முழுவதுமாக அதைப் பயன்படுத்தும் மனிதனின் நோக்கம் மற்றும்
வடிவமைப்புடன் பிணைக்கப்பட்டுள்ளன. கால்குலேட்டர் கணக்கீட்டுச் செயல்முறையைத் திருடாதது போலவே, AI ஆனது அறிவார்ந்த படைப்பைக் (Intellectual Creation) கவர்வதில்லை; அது வெளிப்பாட்டின் செயல்திறனை (Efficiency of Expression) மேம்படுத்துகிறது.
AI-ஐச் சுற்றியுள்ள
தார்மீகக் கவலை, அறிவுத்
திருட்டின் யதார்த்தத்திலிருந்து வருவதை விட,
அர்த்தமும்
அசல் தன்மையும் எவ்வாறு உருவாக்கப்படுகின்றன என்பது குறித்த கருத்தியல் தெளிவின்மை
இல்லாமையிலிருந்தே எழுகிறது. எனவே,
உண்மையான
நெறிமுறைக் கேள்வி என்னவென்றால்,
AI திருடுகிறதா என்பதல்ல, மாறாக மனிதர்கள்
அதை எவ்வாறு நெறிமுறையாகவும், வெளிப்படையாகவும், கல்வி ஒருமைப்பாட்டுக் கட்டமைப்பிற்குள்ளும்
பயன்படுத்தத் தேர்வு செய்கிறார்கள் என்பதாகும்.
அறிவுப்
பணி மற்றும் படைப்பாற்றல் மாற்றம்
ஒவ்வொரு
ஜெனரேட்டிவ் AI வெளியீடும் ஒரு
மனித உள்ளீட்டிலிருந்து (Human
Prompt) தொடங்குகிறது. ஒரு மாணவர் ஒரு கேள்வியைத் தட்டச்சு செய்கிறார்; ஒரு கல்வியாளர் ஒரு அளவுருவை அமைக்கிறார்; இயந்திரம் இந்தக் கட்டளைகளுக்கு மட்டுமே
பதிலளிக்கிறது. வெளியீட்டின் அசல் தன்மை மனித உள்ளீடு, கேள்வியின் கட்டமைப்பு, சூழலின் துல்லியம் மற்றும் அறிவுசார் ஆழம்
ஆகியவற்றில் தங்கியுள்ளது. AI-இற்குத் தன்னைத்
தானாகச் சிந்திக்கும் உள்நோக்கம் அல்லது உணர்வு இல்லை. ஒரு மங்கலான அல்லது மோசமாகக்
கட்டமைக்கப்பட்ட உள்ளீடு,
பொதுவான மற்றும் கவர்ச்சியற்ற பதிலையே உருவாக்குகிறது; கவனமாக வடிவமைக்கப்பட்ட
ஒரு உள்ளீடு, சிக்கலான
மற்றும் அசல் பகுப்பாய்வு கட்டமைப்பைக் கொடுக்க முடியும். இதன் வெளிச்சத்தில், AI ஐப் பயன்படுத்துவதில் உள்ள 'அறிவார்ந்த உழைப்பு' என்பது உரையைத் தட்டச்சு செய்வதில் அல்ல, மாறாகச் சிந்தனையை வடிவமைப்பதில்
தங்கியுள்ளது.
மனிதப்
படைப்பாளி, எழுத்தாளரின்
பாத்திரத்திலிருந்து கட்டடக் கலைஞரின் (Architect)
பாத்திரத்திற்கு
மாறுகிறார். கருத்தியல் கட்டமைப்புகளை உருவாக்குதல், விமர்சன ரீதியாகக் கட்டளையிடுதல் மற்றும் AI-உதவியுடன் கூடிய வரைவுகளின் தரத்தை
மதிப்பீடு செய்தல் ஆகிய பணிகளைச் செய்கிறார். திருட்டுக்கும் (Theft) ஆசிரியர் உரிமைக்கும் (Authorship) இடையேயான வேறுபாடு
மனிதனின் அறிவாற்றல் முயற்சியில் (Cognitive
Effort) தங்கியுள்ளது. இயந்திரத்தை வழிநடத்தும் அளவுருக்களை வடிவமைப்பதன் மூலம், அறிஞர் ஆசிரியர் உரிமையையும் முகவர்
நிலையையும் நிலைநிறுத்துகிறார். இந்த மாற்றம் படைப்பாற்றலையே மறுவரையறை செய்கிறது.
ஒரு காலத்தில் படைப்பாற்றல் கைகளால் வெளிப்படுத்தப்பட்டதன் மூலம் அளவிடப்பட்டது.
இப்போது அது அறிவார்ந்த ஒருங்கிணைப்பால் (Intellectual
Orchestration) அளவிடப்படுகிறது. இது கல்வி ஒருமைப்பாட்டைக் குறைப்பதற்குப்
பதிலாக, அதை மேலும்
தீவிரமாக்குகிறது; இது
செயல்முறையின் விழிப்புணர்வு, நோக்கமுள்ள
பயன்பாடு மற்றும் ஒருவரின் கருவியின் அறிவுசார் வரம்புகள் (Epistemic Limits) பற்றிய அவசியத்தை
வலியுறுத்துகிறது.
சமூக
அறிவியலின் சூழலும் வியாக்கியானத்தின் தேடலும்
சமூக
அறிவியல் மற்றும் மனிதநேயத் துறைகள் வியாக்கியானம் (Interpretation), வாதம் மற்றும் சூழலைப்
பொறுத்துச் செழித்து வளர்கின்றன. சட்டம்,
தத்துவம், அரசியல் அறிவியல் அல்லது சமூகவியல்
போன்றவற்றில் அறிவு ஒருபோதும் இறுதியானது அல்ல; அது உரையாடல் மற்றும் விவாதம் மூலம் உருவாகிறது. நீதி, சுதந்திரம் அல்லது அதிகாரம் பற்றிய
கேள்விக்கு ஒரே 'சரியான பதில்' இல்லை;
இங்கு
வியாக்கியானங்கள், கண்ணோட்டங்கள்
மற்றும் போட்டியிடும் பகுத்தறிவுகள் மட்டுமே உள்ளன. இந்த அறிவுசார் நிலப்பரப்பிற்குள், 'ஒரு பதிலைப் பிரதி
செய்வது' என்ற கருத்தே
அதன் ஒத்திசைவை இழக்கிறது.
இங்குத்
தகவல் மீட்டெடுக்கப்படுவது அல்ல,
மாறாக
அதன் பின்னணியில் உள்ள பகுத்தறிவுச் செயல்முறையே முக்கியமானது.
பொறுப்புடன்
பயன்படுத்தப்படும்போது, ஜெனரேட்டிவ் AI இந்த பகுத்தறிவுச் செயல்முறைக்கு ஒரு
வசதியளிப்பவராக (Facilitator) மாறுகிறது. இது
எதிர்வாதங்களை உருவகப்படுத்தலாம்,
மாற்றுச்
சட்டகங்களை உருவாக்கலாம் அல்லது கோட்பாட்டுத் தடயங்களை (Theoretical Blind Spots) அடையாளம் காண
உதவலாம். உதாரணமாக, சமூக ஒப்பந்தக்
கோட்பாட்டை (Social Contract
Theory) ஆராயும் ஒரு மாணவர், ஹொப்சியன் (Hobbesian) மற்றும் ரூஸோவியன் (Rousseauian) அதிகாரக் கருத்துகளை AI-ஐக் கொண்டு ஒப்பிட்டுப் பார்க்கச்
சொல்லலாம். இதன் விளைவாகக் கிடைக்கும் தொகுப்பு, புரிதலுக்கு மாற்றாக இல்லாமல், விமர்சனத்திற்கான ஒரு கண்ணாடியை
வழங்குகிறது. இதில் மாணவர் இன்னமும் அங்கீகாரம், மேற்கோள் மற்றும் வாதம் என்ற வியாக்கியான உழைப்பைச்
செய்கிறார். மேலும், சமூக
விசாரணையின் மையமான சமூக நுணுக்கம் (Social
Nuance), தார்மீகத் தீர்ப்பு அல்லது கலாச்சாரப் பச்சாத்தாபம் தொடர்பான பரிமாணங்களை AI-ஆல் உள்ளுணர முடியாது. அதன் வரம்புகள் மனித வியாக்கியானத்தின்
அவசியத்தை உறுதிப்படுத்துகின்றன. ஃபோக்கோ அல்லது ஹேபர்மாஸ் போன்ற தத்துவஞானிகளை இயந்திரம்
சுருக்கலாம், ஆனால், சமகாலக் கண்காணிப்பு அல்லது ஜனநாயகச் சிதைவு
தொடர்பான பிரச்சினைகளுக்கு அவற்றின் பொருத்தத்தை அறிஞரால் மட்டுமே கண்டறிய
முடியும்.
ஆசிரியர்
உரிமையின் மறுவரையறை: பதிலீடு அல்ல,
கூட்டாண்மை
ஆசிரியர்
உரிமையின் அர்த்தம் ஒருபோதும் நிலையானதாக இருந்ததில்லை. அச்சு இயந்திரத்தின்
கண்டுபிடிப்பு, தட்டச்சுப்பொறியின்
எழுச்சி, வேர்ட் புரொசெசர்
மற்றும் இப்போது ஜெனரேட்டிவ் AI என ஒவ்வொரு
தொழில்நுட்ப முன்னேற்றத்திலும், மனிதகுலம்
படைப்பாற்றலின் பொருளை மறுவரையறை செய்துள்ளது. இந்த ஒவ்வொரு மாற்றமும் இதே போன்ற
அச்சங்களைத் தூண்டியுள்ளது: இயந்திரமயமாக்கல் அசல் தன்மையையோ அல்லது மனித அறிவையோ
அழித்துவிடும் என்ற அச்சம். ஆயினும்,
வரலாறு
காட்டுவது என்னவென்றால், தொழில்நுட்பம்
தொடர்ந்து படைப்பு முகவர் நிலையைக் குறைப்பதற்குப் பதிலாக விரிவாக்கியே உள்ளது. AI என்பது இந்தத் தொடர்ச்சியில் அடுத்த
அத்தியாயத்தைக் குறிக்கிறது: பதிலீட்டுக் கருவி அல்ல, மாறாகக் கூட்டாண்மைக்கான ஒரு கருவி (Tool of Collaboration).
ஜெனரேட்டிவ்
AI மனித ஆசிரியரை (Human Author) நீக்கவில்லை; அது ஆசிரியர் உரிமையைச் சேகரித்தல், தீர்ப்பு மற்றும் செப்பனிடுதல் போன்ற
செயல்களாக மாற்றுகிறது. அறிஞர் செயல்முறையை வழிநடத்துகிறார், முடிவைச் சூழலுக்குள் வைக்கிறார் மற்றும்
நடுநிலையான உரையில் அர்த்தத்தைப் பதிக்கிறார். ஆசிரியர்கள் ஒரு கையெழுத்துப்
பிரதியை மெருகூட்டுவது போல, AI ஆனது ஆசிரியர்
விமர்சன ஈடுபாட்டின் மூலம் செம்மைப்படுத்த வேண்டிய ஒரு வேலிக் கட்டமைப்பை (Scaffolding) வழங்குகிறது. மனித
ஆசிரியர் உரிமைக்கும் இயந்திர உதவிக்கும் இடையேயான வேறுபாடு தெளிவாகவே உள்ளது: இயந்திரத்தின்
பின்னணியில் உள்ள மனமே இறுதிப் பொருளின் தரம், ஒத்திசைவு மற்றும்
தார்மீக உரிமையை ஆணையிடுகிறது.
உயர்
கல்வி நீண்ட காலமாகவே அறிவுசார் உற்பத்தியை மத்தியஸ்தம் செய்யும் கருவிகளை
ஏற்றுக்கொண்டுள்ளது: மேற்கோள் முகாமைத்துவக் கருவிகள், இலக்கணச் சரிபார்ப்புக் கருவிகள், புள்ளிவிவர மென்பொருள்கள் மற்றும்
மொழிபெயர்ப்புத் திட்டங்கள். இவை ஒவ்வொன்றும் சிந்தனையை மாற்றாமல், அதற்கு உதவுகின்றன. ஜெனரேட்டிவ் AI ஆனது மனித அறிவாற்றலின் நீட்டிப்பாகவே (Extension of Human Cognition) பார்க்கப்பட
வேண்டும், அதன் போலியாக அல்ல. எனவே, AI யுகத்தில் ஆசிரியர் உரிமை என்பது
வெளிப்படைத்தன்மை, அறிவுசார்
நேர்மை மற்றும் மனிதர்கள் யோசனைகளை வெறுமனே உருவாக்குவதை விட, அதை எவ்வாறு வடிவமைக்கிறார்கள் என்பதில்
அசல் தன்மை தங்கியுள்ளது என்பதை அங்கீகரிப்பதைக் கோருகிறது.
நெறிமுறைப்
பயன்பாடும் கல்விசார் அறிவும்: புதிய திறனைக் கற்பித்தல்
பல்கலைக்கழகங்கள்
AI ஐத் தொடர்ந்து
தடைசெய்யப்பட்ட ஒரு கருவியாகக் கருதினால்,
அவை
ஏற்கனவே அல்காரிதமிக் கலாச்சாரத்தில் மூழ்கியிருக்கும் ஒரு தலைமுறை மாணவர்களை
அந்நியப்படுத்தும் அபாயம் உள்ளது.
இதற்கான பொருத்தமான பதில் தடை செய்வதல்ல, கற்பித்தல் முறையை (Pedagogy) மாற்றுவதே ஆகும். இந்த அமைப்புகளை விமர்சன ரீதியாகவும், நெறிமுறையாகவும், பிரதிபலிப்புடனும் பயன்படுத்தும் திறனான AI அறிவை நோக்கி நிறுவனங்கள் கல்விப் பயிற்சியை
மறுசீரமைக்க வேண்டும். இந்த அறிவு,
வெறும்
கட்டளையிடுவது எப்படி என்பதை அறிவதைத் தாண்டிச் செல்கிறது; இது தரவுச் சார்புநிலை (Data Bias), மேற்கோள் நெறிமுறைகள்
மற்றும் இயந்திரத்தால் உருவாக்கப்பட்ட அறிவின் அறிவுசார் வரம்புகளைப் (Epistemological Limits) புரிந்துகொள்வதை
உள்ளடக்குகிறது.
AI அறிவை கற்பிப்பது
ஏற்கனவே இருக்கும் கல்வித் திறன் கட்டுமானங்களைப் போலவே இருக்கும். மாணவர்கள்
மூலங்களைக் குறிப்பிடவும், ஆதாரங்களை
மதிப்பீடு செய்யவும், வாதத்தை
கருத்திலிருந்து வேறுபடுத்தவும் கற்றுக்கொள்கிறார்கள். அதேபோல், அவர்கள் AI உதவியை எப்போது,
எவ்வாறு வெளிப்படுத்த வேண்டும்
என்பதைக் கற்றுக்கொள்ள வேண்டும். AI
ஒரு
முன் வரைவை (Preliminary Drafts)
உருவாக்கப்
பயன்படுத்தப்பட்டது அல்லது ஒரு வெளிப்புறக் கட்டமைப்பை (Outline Structures) உருவாக்கப்
பயன்படுத்தப்பட்டது என்று வெளிப்படையாகக் கூறுவதை பல்கலைக்கழகங்கள் ஊக்குவிக்க
வேண்டும். இது நேர்மை மற்றும் பொறுப்புக்கூறலை (Accountability) இயல்பாக்குகிறது. புள்ளிவிவர மென்பொருளைப் பயன்படுத்துவதைப் போலவே, வெளிப்படுத்தல் செயல் (Act of Disclosure) ஒருமைப்பாட்டைக்
குறைப்பதற்குப் பதிலாக அதை வலுப்படுத்துகிறது.
மேலும், நெறிமுறை AI அறிவு, பயிற்சித்
தரவில் (Training Data) உட்பொதிக்கப்பட்டுள்ள
சார்புநிலைகளையும் மாதிரி வெளியீடுகளையும் எதிர்கொள்ளப் பயனர்களை
கட்டாயப்படுத்துகிறது. ஒரு சட்ட மாணவர் வழக்குகளின் சுருக்கங்களை ஆராயும்போது, அதிகாரப்பூர்வ மூலங்களுடன் அதன் துல்லியத்தைச் சரிபார்க்க வேண்டும்; AI உருவாக்கிய வரையறைகளைப் பயன்படுத்தும் ஒரு
அரசியல் விஞ்ஞானி அதன் சித்தாந்தக் கட்டமைப்பை மதிப்பிட வேண்டும். இந்த வழியில், AI அறிவு,
அறிவார்ந்த
முறையின் சாராம்சமான விமர்சன விழிப்புணர்வை (Critical Vigilance) வளர்க்கிறது. இத்தகைய நடைமுறைகளை
நிறுவனமயமாக்குவதன் மூலம், கல்வி அதன்
தார்மீக அடித்தளங்களைப் பாதுகாக்கும் அதே வேளையில், தொழில்நுட்ப யதார்த்தங்களைச் சந்திக்க முடியும்.
உண்மையான
அச்சுறுத்தல்: இயந்திரப் பயன்பாடு அல்ல,
தவறான
பயன்பாடு
கல்வி
ஒருமைப்பாட்டிற்கு உண்மையான ஆபத்து இயந்திரத்தில் அல்ல, ஆனால் மனிதன் அதைப் "தவறாகப்
பயன்படுத்த" (Misuse) தூண்டப்படுவதில் உள்ளது. தனிநபர்கள் AI இன் பங்களிப்பின் அளவை மறைக்கும்போது அல்லது
தவறாகச் சித்தரிக்கும்போது, திருத்தப்படாத வெளியீடுகளை அசல் வேலையாகச் சமர்ப்பிக்கும்போது
நெறிமுறை மீறல் நிகழ்கிறது. இது ஒரு தொழில்நுட்பக் குற்றம் அல்ல, இது ஒரு வகையான ஏமாற்றுதல் (Deception) ஆகும். அதே கொள்கை பிற
கல்வி மீறல்களுக்கும் பொருந்துகிறது: ஆள்மாறாட்ட எழுத்து, பிளேஜியரிசம் அல்லது அங்கீகரிக்கப்படாத
திருத்தம். தார்மீகத்
தோல்வி என்பது மனிதனின் தவறு,
அல்காரிதத்தின் தவறு அல்ல.
சரியான
முறையில் பயன்படுத்தப்பட்டால்,
AI ஆனது கற்றலில் உள்ளடக்கம் மற்றும் சமத்துவத்தை (Inclusivity and Equity) கூட
ஊக்குவிக்கும். ஆங்கிலம் இரண்டாம் மொழியாக இருக்கும் மாணவர்கள் அல்லது வளங்கள்
குறைவாக உள்ள நிறுவனங்களைச் சேர்ந்தவர்கள்,
இலக்கணத்தைத்
தெளிவுபடுத்துவதற்கோ, கட்டமைப்பைச்
சோதிப்பதற்கோ அல்லது வெளிப்பாட்டை மேம்படுத்துவதற்கோ AI ஐ மொழியியல் சமத்துவமாகப் (Linguistic Equaliser) பயன்படுத்தலாம். இந்த
அர்த்தத்தில், AI ஆனது கல்வி
விவாதத்திற்கான அணுகலை ஜனநாயகமயமாக்க முடியும்.
எனவே, பல்கலைக்கழகங்கள் பயன்பாட்டையும்
துஷ்பிரயோகத்தையும் வேறுபடுத்தி அறிய வேண்டும். ஏற்றுக்கொள்ளக்கூடிய உதவியை
வரையறுக்கும் தெளிவான கொள்கைகளை அவை உருவாக்க வேண்டும். பொறுப்புக்கூறலைத் தவிர்க்கும் ஒரு
துணிச்சலான தடை, பயன்பாட்டை
மறைத்து, நேர்மையின்மையை
ஊக்குவிப்பதன் மூலம் பாதகமான விளைவுகளை மட்டுமே ஏற்படுத்தும். ஒரு முதிர்ந்த கல்வி
கலாச்சாரம், உணர்ச்சிப்பூர்வமான
பயத்தை விட வெளிப்படைத்தன்மை, தழுவல் மற்றும்
சூழல் உணர்திறன் கொண்ட ஒழுங்குமுறையை (Context-sensitive
Regulation) ஏற்றுக்கொள்ள வேண்டும்.
கருவி
மற்றும் திருட்டுக்கு இடையில்: கற்றலின் எதிர்காலத்தைத் தேர்ந்தெடுப்பது
ஜெனரேட்டிவ்
AI ஐ 'கல்வித் திருட்டு' என்று அழைப்பது கல்வி உலகத்தையும் AI ஐயும் தவறாகப் புரிந்துகொள்வதாகும்.
திருட்டு என்பது சம்மதம், உரிமை அல்லது
பங்களிப்பு இல்லாமல் எடுத்துக்கொள்வதைக் குறிக்கிறது. இதற்கு நேர்மாறாக, ஜெனரேட்டிவ் AI மனிதப் பயனரின் சம்மதம் மற்றும் கட்டளையின் கீழ் செயல்படுகிறது.
இது சாத்தியக்கூறுகளை உருவாக்குகிறது,
சொத்தை
அல்ல. தார்மீக முகவர்
நிறுவனம் (Moral Agency) முழுவதும், உள்ளீட்டை உருவாக்கும், பதிலைச் சரிபார்க்கும்
மற்றும் ஒத்திசைவான வாதத்தில் அதை ஒருங்கிணைக்கும் அறிஞருடன் தங்கியுள்ளது. குறிப்பாகச் சமூக
அறிவியல் போன்ற வியாக்கியானத் துறைகளுக்குள்,
பதில்கள்
விவாதம் மூலம் உருவாகின்றன; AI ஆனது நிலையானதாக
இல்லாத ஒன்றைத் திருட முடியாது; அது
பிரதிபலித்து, மறுசீரமைத்து, மறுவடிவமைக்க மட்டுமே முடியும்.
எனவே, கல்வி உலகத்தின் முன்னால் உள்ள சவால்
இயந்திரத்தை எதிர்ப்பது அல்ல, மாறாக அதைக் கற்று தேர்ச்சி பெறுவதே ஆகும். உண்மையான புரட்சி
அறிவுசார்ந்தது, இயந்திரத்தனமானது
அல்ல. AI உடன் எப்படிச்
சிந்திப்பது என்று மாணவர்களுக்குக் கற்பிக்கும் பல்கலைக்கழகங்கள், நெறிமுறைகள் மற்றும் புத்தாக்கம் இரண்டிலும்
சரளமாக இருக்கும் ஒரு தலைமுறையை வளர்க்கும். இதற்குப் பகிரப்பட்ட ஆசிரியர் உரிமையை
அங்கீகரிக்கும் கொள்கைகள், வெளிப்படுத்தலை
ஊக்குவித்தல் மற்றும் இயந்திர வெளியீட்டிற்குப் பதிலாக விமர்சனப் பிரதிபலிப்புக்கு
வெகுமதி அளிப்பது அவசியம்.
குறிப்புகள்
(References):
OECD. (2024). Artificial
Intelligence and the Future of Learning: Recommendations for Policy-Makers.
OECD Publishing. (Conceptual reference for policy context and AI Literacy)
Higher
Education Policy Institute (HEPI). (2025). Generative AI Use Among UK
University Students. London: HEPI.
Digital
Education Council. (2024). Global Survey on AI Adoption in Higher Education.
Digital Education Council Report.
Nature.
(2024). Student Use Patterns of Generative AI Tools in Academic Settings.
Nature Education Journal, 15(3), 245-267.
Inside
Higher Ed. (2024). First-Generation Students and AI Confidence Gaps.
Inside Higher Ed Research Series.
Cengage
Group. (2024). Graduate Preparedness for AI Integration in Workplace.
Cengage Research Report.
World
Economic Forum. (2024). Future of Education: AI Integration and Student
Perspectives. Geneva: WEF.
Tecnologico
de Monterrey. (2024). Student Perceptions of AI and Academic Integrity.
Mexico: TEC Research Institute.
European
Business Review. (2024). University AI Policies: A Comparative Analysis of
50 Leading Institutions. EBR, 36(2), 112-134.
Packback.
(2024). Faculty Experiences with AI Detection Tools. Packback Education
Report.
Monash
University. (2024). Global Study on Generative AI Adoption Across 40
Universities. Melbourne: Monash Institute.
Stanford
University. (2023). AI Playground Initiative: Guided Exploration of
Generative Tools. Stanford Digital Education.
MIT RAISE
Initiative. (2024). Integrating AI Literacy Across Curriculum.
Cambridge: MIT Press.


0 comments:
Post a Comment