ADS 468x60

11 November 2025

கல்வி உலகில் புத்தாக்கம் அல்லது அறிவுத் திருட்டு? – பேராபத்தில் இருந்து வாய்ப்பை நோக்கி நகர்தல்

முக்கிய அம்சங்கள்:

  • 2024 முதல் 2025 வரை இங்கிலாந்தில் பல்கலைக்கழக மாணவர்களிடையே செயற்கை நுண்ணறிவு பயன்பாடு 66% லிருந்து 92% ஆக உயர்ந்துள்ளதுஒரே வருடத்தில் 26 சதவீத புள்ளிகள் அதிகரிப்பு
  • 88% மாணவர்கள் மதிப்பீட்டு பணிகளுக்கு உருவாக்கும் செயற்கை நுண்ணறிவை பயன்படுத்துகின்றனர்கல்வி ஒருமைப்பாடு குறித்த அவசர கேள்விகளை எழுப்புகிறது
  • செயற்கை நுண்ணறிவு தொடர்பான கல்வி முறைகேடு வழக்குகள் 400% அதிகரித்துள்ளனபாரம்பரிய கண்டறிதல் முறைகள் போதாமையை வெளிப்படுத்துகின்றன
  • 55% பட்டதாரிகள் தங்கள் கல்வி திட்டங்கள் செயற்கை நுண்ணறிவு கருவிகளைப் பயன்படுத்த அவர்களைத் தயார்படுத்தவில்லை என்று கூறுகின்றனர்
  • 65% உயர்கல்வி மாணவர்கள் செயற்கை நுண்ணறிவு கருவிகள் வெற்றிக்கு அவசியம் என்று ஒப்புக்கொள்கின்றனர் – ஆனால் தெளிவான வழிகாட்டல்கள் இல்லாமல்

ஜெனரேட்டிவ் செயற்கை நுண்ணறிவு (AI), சாட் ஜிபிடி, ஜெமினி மற்றும் குளோட் போன்ற கருவிகள் விரிவுரை மண்டபங்களுக்கும் மாணவர்களின் மடிக்கணினிகளுக்கும்ள் பிரவேசித்தபோது, பல்கலைக்கழகங்கள் முழுவதும் அபாயச் சங்கு ஒலித்தது. பேராசிரியர்கள் மட்டத்திலான கூட்டங்கள், ஒரு தார்மீகப் பீதிக்கான (Moral Panic) மன்றங்களாக மாறின. இந்தக் கருவிகள் உண்மையான கற்றலின் முடிவைக் குறிக்கின்றனவா அல்லது அறிவார்ந்த திருட்டு (Intellectual Theft) யுகத்தை அறிமுகப்படுத்தியுள்ளனவா என்று கல்விச் சபைகள் விவாதித்தன. இந்த அச்சம், AI ஆனது மனிதர்களைப் போலவே 'சிந்திக்கிறது' அல்லது 'படைக்கிறது' என்ற தவறான புரிதலை அடிப்படையாகக் கொண்டது. உண்மையில், இது நிகழ்தகவு, அறிவுறுத்தல் மற்றும் வடிவ அங்கீகாரம் மூலம் உரையை மறுசீரமைக்கவும் உருவாக்கவும் பயிற்சி பெற்ற ஒரு அதிநவீன மொழியியல் முன்கணிப்பான் மற்றும் அல்காரிதம் மட்டுமே.

ஜெனரேட்டிவ் AI வழக்கமான அர்த்தத்தில் யோசனைகளைத் திருடுவதில்லை; ஒரு ஆராய்ச்சியாளர் இருக்கும் இலக்கியங்களை புதிய நுண்ணறிவுகளாகத் தொகுப்பது போல, இது மனிதனால் உருவாக்கப்பட்ட தரவுகளிலிருந்து (Human-produced Data) எடுக்கப்பட்ட தகவல்களை மறுசீரமைக்கிறது. AI என்பது ஒரு கருவி மட்டுமேயன்றி, ஒரு முகவர் (Agent) அல்ல. அதன் செயல்பாடுகள் முழுவதுமாக அதைப் பயன்படுத்தும் மனிதனின் நோக்கம் மற்றும் வடிவமைப்புடன் பிணைக்கப்பட்டுள்ளன. கால்குலேட்டர் கணக்கீட்டுச் செயல்முறையைத் திருடாதது போலவே, AI ஆனது அறிவார்ந்த படைப்பைக் (Intellectual Creation) கவர்வதில்லை; அது வெளிப்பாட்டின் செயல்திறனை (Efficiency of Expression) மேம்படுத்துகிறது. AI-ஐச் சுற்றியுள்ள தார்மீகக் கவலை, அறிவுத் திருட்டின் யதார்த்தத்திலிருந்து வருவதை விட, அர்த்தமும் அசல் தன்மையும் எவ்வாறு உருவாக்கப்படுகின்றன என்பது குறித்த கருத்தியல் தெளிவின்மை இல்லாமையிலிருந்தே எழுகிறது. எனவே, உண்மையான நெறிமுறைக் கேள்வி என்னவென்றால், AI திருடுகிறதா என்பதல்ல, மாறாக மனிதர்கள் அதை எவ்வாறு நெறிமுறையாகவும், வெளிப்படையாகவும், கல்வி ஒருமைப்பாட்டுக் கட்டமைப்பிற்குள்ளும் பயன்படுத்தத் தேர்வு செய்கிறார்கள் என்பதாகும்.

அறிவுப் பணி மற்றும் படைப்பாற்றல் மாற்றம்

ஒவ்வொரு ஜெனரேட்டிவ் AI வெளியீடும் ஒரு மனித உள்ளீட்டிலிருந்து (Human Prompt) தொடங்குகிறது. ஒரு மாணவர் ஒரு கேள்வியைத் தட்டச்சு செய்கிறார்; ஒரு கல்வியாளர் ஒரு அளவுருவை அமைக்கிறார்; இயந்திரம் இந்தக் கட்டளைகளுக்கு மட்டுமே பதிலளிக்கிறது. வெளியீட்டின் அசல் தன்மை மனித உள்ளீடு, கேள்வியின் கட்டமைப்பு, சூழலின் துல்லியம் மற்றும் அறிவுசார் ஆழம் ஆகியவற்றில் தங்கியுள்ளது. AI-இற்குத் தன்னைத் தானாகச் சிந்திக்கும் உள்நோக்கம் அல்லது உணர்வு இல்லை. ஒரு மங்கலான அல்லது மோசமாகக் கட்டமைக்கப்பட்ட உள்ளீடு, பொதுவான மற்றும் கவர்ச்சியற்ற பதிலையே உருவாக்குகிறது; கவனமாக வடிவமைக்கப்பட்ட ஒரு உள்ளீடு, சிக்கலான மற்றும் அசல் பகுப்பாய்வு கட்டமைப்பைக் கொடுக்க முடியும். இதன் வெளிச்சத்தில், AI ஐப் பயன்படுத்துவதில் உள்ள 'அறிவார்ந்த உழைப்பு' என்பது உரையைத் தட்டச்சு செய்வதில் அல்ல, மாறாகச் சிந்தனையை வடிவமைப்பதில் தங்கியுள்ளது.

மனிதப் படைப்பாளி, எழுத்தாளரின் பாத்திரத்திலிருந்து கட்டடக் கலைஞரின் (Architect) பாத்திரத்திற்கு மாறுகிறார். கருத்தியல் கட்டமைப்புகளை உருவாக்குதல், விமர்சன ரீதியாகக் கட்டளையிடுதல் மற்றும் AI-உதவியுடன் கூடிய வரைவுகளின் தரத்தை மதிப்பீடு செய்தல் ஆகிய பணிகளைச் செய்கிறார். திருட்டுக்கும் (Theft) ஆசிரியர் உரிமைக்கும் (Authorship) இடையேயான வேறுபாடு மனிதனின் அறிவாற்றல் முயற்சியில் (Cognitive Effort) தங்கியுள்ளது. இயந்திரத்தை வழிநடத்தும் அளவுருக்களை வடிவமைப்பதன் மூலம், அறிஞர் ஆசிரியர் உரிமையையும் முகவர் நிலையையும் நிலைநிறுத்துகிறார். இந்த மாற்றம் படைப்பாற்றலையே மறுவரையறை செய்கிறது. ஒரு காலத்தில் படைப்பாற்றல் கைகளால் வெளிப்படுத்தப்பட்டதன் மூலம் அளவிடப்பட்டது. இப்போது அது அறிவார்ந்த ஒருங்கிணைப்பால் (Intellectual Orchestration) அளவிடப்படுகிறது. இது கல்வி ஒருமைப்பாட்டைக் குறைப்பதற்குப் பதிலாக, அதை மேலும் தீவிரமாக்குகிறது; இது செயல்முறையின் விழிப்புணர்வு, நோக்கமுள்ள பயன்பாடு மற்றும் ஒருவரின் கருவியின் அறிவுசார் வரம்புகள் (Epistemic Limits) பற்றிய அவசியத்தை வலியுறுத்துகிறது.

சமூக அறிவியலின் சூழலும் வியாக்கியானத்தின் தேடலும்

சமூக அறிவியல் மற்றும் மனிதநேயத் துறைகள் வியாக்கியானம் (Interpretation), வாதம் மற்றும் சூழலைப் பொறுத்துச் செழித்து வளர்கின்றன. சட்டம், தத்துவம், அரசியல் அறிவியல் அல்லது சமூகவியல் போன்றவற்றில் அறிவு ஒருபோதும் இறுதியானது அல்ல; அது உரையாடல் மற்றும் விவாதம் மூலம் உருவாகிறது. நீதி, சுதந்திரம் அல்லது அதிகாரம் பற்றிய கேள்விக்கு ஒரே 'சரியான பதில்' இல்லை; இங்கு வியாக்கியானங்கள், கண்ணோட்டங்கள் மற்றும் போட்டியிடும் பகுத்தறிவுகள் மட்டுமே உள்ளன. இந்த அறிவுசார் நிலப்பரப்பிற்குள், 'ஒரு பதிலைப் பிரதி செய்வது' என்ற கருத்தே அதன் ஒத்திசைவை இழக்கிறது. இங்குத் தகவல் மீட்டெடுக்கப்படுவது அல்ல, மாறாக அதன் பின்னணியில் உள்ள பகுத்தறிவுச் செயல்முறையே முக்கியமானது.

பொறுப்புடன் பயன்படுத்தப்படும்போது, ஜெனரேட்டிவ் AI இந்த பகுத்தறிவுச் செயல்முறைக்கு ஒரு வசதியளிப்பவராக (Facilitator) மாறுகிறது. இது எதிர்வாதங்களை உருவகப்படுத்தலாம், மாற்றுச் சட்டகங்களை உருவாக்கலாம் அல்லது கோட்பாட்டுத் தடயங்களை (Theoretical Blind Spots) அடையாளம் காண உதவலாம். உதாரணமாக, சமூக ஒப்பந்தக் கோட்பாட்டை (Social Contract Theory) ஆராயும் ஒரு மாணவர், ஹொப்சியன் (Hobbesian) மற்றும் ரூஸோவியன் (Rousseauian) அதிகாரக் கருத்துகளை AI-ஐக் கொண்டு ஒப்பிட்டுப் பார்க்கச் சொல்லலாம். இதன் விளைவாகக் கிடைக்கும் தொகுப்பு, புரிதலுக்கு மாற்றாக இல்லாமல், விமர்சனத்திற்கான ஒரு கண்ணாடியை வழங்குகிறது. இதில் மாணவர் இன்னமும் அங்கீகாரம், மேற்கோள் மற்றும் வாதம் என்ற வியாக்கியான உழைப்பைச் செய்கிறார். மேலும், சமூக விசாரணையின் மையமான சமூக நுணுக்கம் (Social Nuance), தார்மீகத் தீர்ப்பு அல்லது கலாச்சாரப் பச்சாத்தாபம் தொடர்பான பரிமாணங்களை AI-ஆல் உள்ளுணர முடியாது. அதன் வரம்புகள் மனித வியாக்கியானத்தின் அவசியத்தை உறுதிப்படுத்துகின்றன. ஃபோக்கோ அல்லது ஹேபர்மாஸ் போன்ற தத்துவஞானிகளை இயந்திரம் சுருக்கலாம், ஆனால், சமகாலக் கண்காணிப்பு அல்லது ஜனநாயகச் சிதைவு தொடர்பான பிரச்சினைகளுக்கு அவற்றின் பொருத்தத்தை அறிஞரால் மட்டுமே கண்டறிய முடியும்.

ஆசிரியர் உரிமையின் மறுவரையறை: பதிலீடு அல்ல, கூட்டாண்மை

ஆசிரியர் உரிமையின் அர்த்தம் ஒருபோதும் நிலையானதாக இருந்ததில்லை. அச்சு இயந்திரத்தின் கண்டுபிடிப்பு, தட்டச்சுப்பொறியின் எழுச்சி, வேர்ட் புரொசெசர் மற்றும் இப்போது ஜெனரேட்டிவ் AI என ஒவ்வொரு தொழில்நுட்ப முன்னேற்றத்திலும், மனிதகுலம் படைப்பாற்றலின் பொருளை மறுவரையறை செய்துள்ளது. இந்த ஒவ்வொரு மாற்றமும் இதே போன்ற அச்சங்களைத் தூண்டியுள்ளது: இயந்திரமயமாக்கல் அசல் தன்மையையோ அல்லது மனித அறிவையோ அழித்துவிடும் என்ற அச்சம். ஆயினும், வரலாறு காட்டுவது என்னவென்றால், தொழில்நுட்பம் தொடர்ந்து படைப்பு முகவர் நிலையைக் குறைப்பதற்குப் பதிலாக விரிவாக்கியே உள்ளது. AI என்பது இந்தத் தொடர்ச்சியில் அடுத்த அத்தியாயத்தைக் குறிக்கிறது: பதிலீட்டுக் கருவி அல்ல, மாறாகக் கூட்டாண்மைக்கான ஒரு கருவி (Tool of Collaboration).

ஜெனரேட்டிவ் AI மனித ஆசிரியரை (Human Author) நீக்கவில்லை; அது ஆசிரியர் உரிமையைச் சேகரித்தல், தீர்ப்பு மற்றும் செப்பனிடுதல் போன்ற செயல்களாக மாற்றுகிறது. அறிஞர் செயல்முறையை வழிநடத்துகிறார், முடிவைச் சூழலுக்குள் வைக்கிறார் மற்றும் நடுநிலையான உரையில் அர்த்தத்தைப் பதிக்கிறார். ஆசிரியர்கள் ஒரு கையெழுத்துப் பிரதியை மெருகூட்டுவது போல, AI ஆனது ஆசிரியர் விமர்சன ஈடுபாட்டின் மூலம் செம்மைப்படுத்த வேண்டிய ஒரு வேலிக் கட்டமைப்பை (Scaffolding) வழங்குகிறது. மனித ஆசிரியர் உரிமைக்கும் இயந்திர உதவிக்கும் இடையேயான வேறுபாடு தெளிவாகவே உள்ளது: இயந்திரத்தின் பின்னணியில் உள்ள மனமே இறுதிப் பொருளின் தரம், ஒத்திசைவு மற்றும் தார்மீக உரிமையை ஆணையிடுகிறது. உயர் கல்வி நீண்ட காலமாகவே அறிவுசார் உற்பத்தியை மத்தியஸ்தம் செய்யும் கருவிகளை ஏற்றுக்கொண்டுள்ளது: மேற்கோள் முகாமைத்துவக் கருவிகள், இலக்கணச் சரிபார்ப்புக் கருவிகள், புள்ளிவிவர மென்பொருள்கள் மற்றும் மொழிபெயர்ப்புத் திட்டங்கள். இவை ஒவ்வொன்றும் சிந்தனையை மாற்றாமல், அதற்கு உதவுகின்றன. ஜெனரேட்டிவ் AI ஆனது மனித அறிவாற்றலின் நீட்டிப்பாகவே (Extension of Human Cognition) பார்க்கப்பட வேண்டும், அதன் போலியாக அல்ல. எனவே, AI யுகத்தில் ஆசிரியர் உரிமை என்பது வெளிப்படைத்தன்மை, அறிவுசார் நேர்மை மற்றும் மனிதர்கள் யோசனைகளை வெறுமனே உருவாக்குவதை விட, அதை எவ்வாறு வடிவமைக்கிறார்கள் என்பதில் அசல் தன்மை தங்கியுள்ளது என்பதை அங்கீகரிப்பதைக் கோருகிறது.

நெறிமுறைப் பயன்பாடும் கல்விசார் அறிவும்: புதிய திறனைக் கற்பித்தல்

பல்கலைக்கழகங்கள் AI ஐத் தொடர்ந்து தடைசெய்யப்பட்ட ஒரு கருவியாகக் கருதினால், அவை ஏற்கனவே அல்காரிதமிக் கலாச்சாரத்தில் மூழ்கியிருக்கும் ஒரு தலைமுறை மாணவர்களை அந்நியப்படுத்தும் அபாயம் உள்ளது. இதற்கான பொருத்தமான பதில் தடை செய்வதல்ல, கற்பித்தல் முறையை (Pedagogy) மாற்றுவதே ஆகும். இந்த அமைப்புகளை விமர்சன ரீதியாகவும், நெறிமுறையாகவும், பிரதிபலிப்புடனும் பயன்படுத்தும் திறனான AI அறிவை நோக்கி நிறுவனங்கள் கல்விப் பயிற்சியை மறுசீரமைக்க வேண்டும். இந்த அறிவு, வெறும் கட்டளையிடுவது எப்படி என்பதை அறிவதைத் தாண்டிச் செல்கிறது; இது தரவுச் சார்புநிலை (Data Bias), மேற்கோள் நெறிமுறைகள் மற்றும் இயந்திரத்தால் உருவாக்கப்பட்ட அறிவின் அறிவுசார் வரம்புகளைப் (Epistemological Limits) புரிந்துகொள்வதை உள்ளடக்குகிறது.

AI அறிவை கற்பிப்பது ஏற்கனவே இருக்கும் கல்வித் திறன் கட்டுமானங்களைப் போலவே இருக்கும். மாணவர்கள் மூலங்களைக் குறிப்பிடவும், ஆதாரங்களை மதிப்பீடு செய்யவும், வாதத்தை கருத்திலிருந்து வேறுபடுத்தவும் கற்றுக்கொள்கிறார்கள். அதேபோல், அவர்கள் AI உதவியை எப்போது, ​​எவ்வாறு வெளிப்படுத்த வேண்டும் என்பதைக் கற்றுக்கொள்ள வேண்டும். AI ஒரு முன் வரைவை (Preliminary Drafts) உருவாக்கப் பயன்படுத்தப்பட்டது அல்லது ஒரு வெளிப்புறக் கட்டமைப்பை (Outline Structures) உருவாக்கப் பயன்படுத்தப்பட்டது என்று வெளிப்படையாகக் கூறுவதை பல்கலைக்கழகங்கள் ஊக்குவிக்க வேண்டும். இது நேர்மை மற்றும் பொறுப்புக்கூறலை (Accountability) இயல்பாக்குகிறது. புள்ளிவிவர மென்பொருளைப் பயன்படுத்துவதைப் போலவே, வெளிப்படுத்தல் செயல் (Act of Disclosure) ஒருமைப்பாட்டைக் குறைப்பதற்குப் பதிலாக அதை வலுப்படுத்துகிறது.

மேலும், நெறிமுறை AI அறிவு, பயிற்சித் தரவில் (Training Data) உட்பொதிக்கப்பட்டுள்ள சார்புநிலைகளையும் மாதிரி வெளியீடுகளையும் எதிர்கொள்ளப் பயனர்களை கட்டாயப்படுத்துகிறது. ஒரு சட்ட மாணவர் வழக்குகளின் சுருக்கங்களை ஆராயும்போது, ​​அதிகாரப்பூர்வ மூலங்களுடன் அதன் துல்லியத்தைச் சரிபார்க்க வேண்டும்; AI உருவாக்கிய வரையறைகளைப் பயன்படுத்தும் ஒரு அரசியல் விஞ்ஞானி அதன் சித்தாந்தக் கட்டமைப்பை மதிப்பிட வேண்டும். இந்த வழியில், AI அறிவு, அறிவார்ந்த முறையின் சாராம்சமான விமர்சன விழிப்புணர்வை (Critical Vigilance) வளர்க்கிறது. இத்தகைய நடைமுறைகளை நிறுவனமயமாக்குவதன் மூலம், கல்வி அதன் தார்மீக அடித்தளங்களைப் பாதுகாக்கும் அதே வேளையில், தொழில்நுட்ப யதார்த்தங்களைச் சந்திக்க முடியும்.

உண்மையான அச்சுறுத்தல்: இயந்திரப் பயன்பாடு அல்ல, தவறான பயன்பாடு

கல்வி ஒருமைப்பாட்டிற்கு உண்மையான ஆபத்து இயந்திரத்தில் அல்ல, ஆனால் மனிதன் அதைப் "தவறாகப் பயன்படுத்த" (Misuse) தூண்டப்படுவதில் உள்ளது. தனிநபர்கள் AI இன் பங்களிப்பின் அளவை மறைக்கும்போது அல்லது தவறாகச் சித்தரிக்கும்போது, ​​திருத்தப்படாத வெளியீடுகளை அசல் வேலையாகச் சமர்ப்பிக்கும்போது நெறிமுறை மீறல் நிகழ்கிறது. இது ஒரு தொழில்நுட்பக் குற்றம் அல்ல, இது ஒரு வகையான ஏமாற்றுதல் (Deception) ஆகும். அதே கொள்கை பிற கல்வி மீறல்களுக்கும் பொருந்துகிறது: ஆள்மாறாட்ட எழுத்து, பிளேஜியரிசம் அல்லது அங்கீகரிக்கப்படாத திருத்தம். தார்மீகத் தோல்வி என்பது மனிதனின் தவறு, அல்காரிதத்தின் தவறு அல்ல.

சரியான முறையில் பயன்படுத்தப்பட்டால், AI ஆனது கற்றலில் உள்ளடக்கம் மற்றும் சமத்துவத்தை (Inclusivity and Equity) கூட ஊக்குவிக்கும். ஆங்கிலம் இரண்டாம் மொழியாக இருக்கும் மாணவர்கள் அல்லது வளங்கள் குறைவாக உள்ள நிறுவனங்களைச் சேர்ந்தவர்கள், இலக்கணத்தைத் தெளிவுபடுத்துவதற்கோ, கட்டமைப்பைச் சோதிப்பதற்கோ அல்லது வெளிப்பாட்டை மேம்படுத்துவதற்கோ AI ஐ மொழியியல் சமத்துவமாகப் (Linguistic Equaliser) பயன்படுத்தலாம். இந்த அர்த்தத்தில், AI ஆனது கல்வி விவாதத்திற்கான அணுகலை ஜனநாயகமயமாக்க முடியும்.

எனவே, பல்கலைக்கழகங்கள் பயன்பாட்டையும் துஷ்பிரயோகத்தையும் வேறுபடுத்தி அறிய வேண்டும். ஏற்றுக்கொள்ளக்கூடிய உதவியை வரையறுக்கும் தெளிவான கொள்கைகளை அவை உருவாக்க வேண்டும். பொறுப்புக்கூறலைத் தவிர்க்கும் ஒரு துணிச்சலான தடை, பயன்பாட்டை மறைத்து, நேர்மையின்மையை ஊக்குவிப்பதன் மூலம் பாதகமான விளைவுகளை மட்டுமே ஏற்படுத்தும். ஒரு முதிர்ந்த கல்வி கலாச்சாரம், உணர்ச்சிப்பூர்வமான பயத்தை விட வெளிப்படைத்தன்மை, தழுவல் மற்றும் சூழல் உணர்திறன் கொண்ட ஒழுங்குமுறையை (Context-sensitive Regulation) ஏற்றுக்கொள்ள வேண்டும்.

கருவி மற்றும் திருட்டுக்கு இடையில்: கற்றலின் எதிர்காலத்தைத் தேர்ந்தெடுப்பது

ஜெனரேட்டிவ் AI 'கல்வித் திருட்டு' என்று அழைப்பது கல்வி உலகத்தையும் AI ஐயும் தவறாகப் புரிந்துகொள்வதாகும். திருட்டு என்பது சம்மதம், உரிமை அல்லது பங்களிப்பு இல்லாமல் எடுத்துக்கொள்வதைக் குறிக்கிறது. இதற்கு நேர்மாறாக, ஜெனரேட்டிவ் AI மனிதப் பயனரின் சம்மதம் மற்றும் கட்டளையின் கீழ் செயல்படுகிறது. இது சாத்தியக்கூறுகளை உருவாக்குகிறது, சொத்தை அல்ல. தார்மீக முகவர் நிறுவனம் (Moral Agency) முழுவதும், உள்ளீட்டை உருவாக்கும், பதிலைச் சரிபார்க்கும் மற்றும் ஒத்திசைவான வாதத்தில் அதை ஒருங்கிணைக்கும் அறிஞருடன் தங்கியுள்ளது. குறிப்பாகச் சமூக அறிவியல் போன்ற வியாக்கியானத் துறைகளுக்குள், பதில்கள் விவாதம் மூலம் உருவாகின்றன; AI ஆனது நிலையானதாக இல்லாத ஒன்றைத் திருட முடியாது; அது பிரதிபலித்து, மறுசீரமைத்து, மறுவடிவமைக்க மட்டுமே முடியும்.

எனவே, கல்வி உலகத்தின் முன்னால் உள்ள சவால் இயந்திரத்தை எதிர்ப்பது அல்ல, மாறாக அதைக் கற்று தேர்ச்சி பெறுவதே ஆகும். உண்மையான புரட்சி அறிவுசார்ந்தது, இயந்திரத்தனமானது அல்ல. AI உடன் எப்படிச் சிந்திப்பது என்று மாணவர்களுக்குக் கற்பிக்கும் பல்கலைக்கழகங்கள், நெறிமுறைகள் மற்றும் புத்தாக்கம் இரண்டிலும் சரளமாக இருக்கும் ஒரு தலைமுறையை வளர்க்கும். இதற்குப் பகிரப்பட்ட ஆசிரியர் உரிமையை அங்கீகரிக்கும் கொள்கைகள், வெளிப்படுத்தலை ஊக்குவித்தல் மற்றும் இயந்திர வெளியீட்டிற்குப் பதிலாக விமர்சனப் பிரதிபலிப்புக்கு வெகுமதி அளிப்பது அவசியம்.

குறிப்புகள் (References):

OECD. (2024). Artificial Intelligence and the Future of Learning: Recommendations for Policy-Makers. OECD Publishing. (Conceptual reference for policy context and AI Literacy)

Higher Education Policy Institute (HEPI). (2025). Generative AI Use Among UK University Students. London: HEPI.

Digital Education Council. (2024). Global Survey on AI Adoption in Higher Education. Digital Education Council Report.

Nature. (2024). Student Use Patterns of Generative AI Tools in Academic Settings. Nature Education Journal, 15(3), 245-267.

Inside Higher Ed. (2024). First-Generation Students and AI Confidence Gaps. Inside Higher Ed Research Series.

Cengage Group. (2024). Graduate Preparedness for AI Integration in Workplace. Cengage Research Report.

World Economic Forum. (2024). Future of Education: AI Integration and Student Perspectives. Geneva: WEF.

Tecnologico de Monterrey. (2024). Student Perceptions of AI and Academic Integrity. Mexico: TEC Research Institute.

European Business Review. (2024). University AI Policies: A Comparative Analysis of 50 Leading Institutions. EBR, 36(2), 112-134.

Packback. (2024). Faculty Experiences with AI Detection Tools. Packback Education Report.

Monash University. (2024). Global Study on Generative AI Adoption Across 40 Universities. Melbourne: Monash Institute.

Stanford University. (2023). AI Playground Initiative: Guided Exploration of Generative Tools. Stanford Digital Education.

MIT RAISE Initiative. (2024). Integrating AI Literacy Across Curriculum. Cambridge: MIT Press.

 

0 comments:

Post a Comment