Building a Kannada Physics Tutor LLM with Feynman-Style Explanations

Multi-stage fine-tuning pipeline to create a reasoning-first physics tutor in Kannada, combining domain-specific SFT and RAG for intuitive, grounded explanations.

Why This Project?

Most LLMs struggle with conceptual physics explanations in regional languages. I wanted to demonstrate:

Low-Resource Language

Teaching a model to think in Kannada, not just translate from English.

Feynman-Style Teaching

Intuitive, step-by-step reasoning with analogies—focusing on why, not just formulas.

Multi-Stage Pipeline

Language fluency → Domain reasoning → Factual grounding with RAG.

This case study demonstrates:

  • End-to-end fine-tuning for low-resource languages + specialized domains
  • How multi-stage SFT compounds improvements (language → domain → grounding)
  • Complete evaluation pipeline: LLM-as-judge, quantitative metrics, qualitative analysis

System Overview

Goal: Given a physics question in Kannada (e.g., "How do we derive Laplace's equation for a membrane?"), generate:

  1. A step-by-step reasoning trace that builds intuition.
  2. A Feynman-style explanation in natural, fluent Kannada.
  3. Grounded answers using retrieved physics context (RAG).

Four-Model Progression

The training pipeline uses a staged approach where each model builds on the previous one:

1. Base Model

Gemma 3 1B — General-purpose LLM baseline (no specialization)

2. Kannada SFT

Language Foundation — Fine-tuned on general Kannada text for fluency

3. Physics SFT

Domain Reasoning — Physics concepts + Feynman-style explanations in Kannada

4. Physics + RAG

Factual Grounding — Retrieval-augmented generation with physics knowledge base

Why Multi-Stage Fine-Tuning?

Stage 1 (Kannada SFT): Teaches linguistic fluency and natural expression in Kannada, independent of domain.

Stage 2 (Physics SFT): Builds on fluency to add conceptual reasoning, derivations, and Feynman-style intuition.

Stage 3 (RAG): Adds factual precision by retrieving relevant physics context before answering, preventing hallucinations.

LLM-as-Judge Evaluation

Each model's output is evaluated using an LLM-as-judge with a structured grading prompt. The judge scores answers on a 0–5 scale based on:

Physics Correctness

Conceptual accuracy and mathematical precision

Reasoning Quality

Step-by-step clarity and logical flow

Kannada Fluency

Natural language quality and proper grammar

Contextual Relevance

Answers the specific question with appropriate detail

All scores were collected in a CSV file and visualized using score distributions and boxplots to show the progressive improvement across the 4-model pipeline.

Quantitative Evaluation

I evaluated all four models on a held-out set of physics questions, scoring each output with an LLM-as-judge (0–5 scale).

Score Distribution by Model

Score Distribution Histogram
  • The Base Model shows very low scores (mostly 0–1), indicating poor physics understanding and Kannada fluency.
  • Kannada SFT improves language quality slightly but still lacks physics reasoning—scores remain low.
  • Physics SFT shows a dramatic shift—the distribution moves to mid-range (2–3), reflecting strong conceptual reasoning.
  • Physics + RAG achieves the highest scores (3–4), with factual grounding preventing errors and hallucinations.

The progressive right-shift in score distributions demonstrates that each stage adds measurable value: fluency → reasoning → grounding.

Boxplot Comparison

Score Comparison Boxplot
  • Median score increases dramatically from Base (near 0) → Kannada SFT (0.5) → Physics SFT (2.3) → RAG (3.7).
  • The interquartile range narrows for Physics SFT and RAG models, showing more consistent performance.
  • Low-score outliers become rare in the final RAG model, indicating reliable quality across diverse questions.

Key Takeaway: Multi-stage fine-tuning doesn't just improve average performance—it systematically reduces failure modes and increases reliability.

Hero Examples

Compare the output of all four models. Notice the progressive improvement: Base → Kannada SFT (fluency) → Physics SFT (reasoning) → Physics + RAG (grounding). Each model column includes analysis showing what each stage contributes.

Model Comparison

Curl of Vector Field

Question (Kannada):

ಅತಿ ಸೂಕ್ಷ್ಮ ಚದರದ ಸುತ್ತಾಟ ಮತ್ತು ವೆಕ್ಟರ್ ಕ್ಷೇತ್ರದ curl ನಡುವೆ ಇರುವ ಸಂಬಂಧವೇನು?

Question (English):

What is the relationship between rotation of an infinitesimal area element and the curl of a vector field?

Base ModelScore: 0.050
<reasoning>### ಮೂಲ ಕಲ್ಪನೆ: ಅženýಯுడిக்கு இரண்டு தறிಗಳನ್ನು இய निभायाிருக்கும்போது, உள்ளேள்ளுள்ளான ஒரு வட்டத்தின் ஸ்பேர் (direction) மற்றும் ஒரு வெக்டர்டின் (vector) லூப் குள்ளத்தை (curl) எவ்வாறு இணைக்க முடியும்? ### முதற் காரணங்கள்: ### மையப் பிணைப்பு: வட்டத்தின் மையத்தில் உள்ள மையப் புள்ளியைக் (center point) கண்டுபிடிப்பது. ### வெக்டரின் வேகம்: வெக்டரின் செங்குத்து வேகத்தை (absolute velocity) பயன்படுத்துதல். ### வட்டத்தின் ஈர்ப்பு விசை: வட்டத்தின் ஈர்ப்பு விசையை (gravity) கணக்கிடுதல். ### வெக்டரின் சார்பு: வட்டத்தின் மையத்திலிருந்து வெக்டரின் தூரத்தை (distance) கணக்கிடுதல். ### சுருக்கத்தின் அளவு: வட்டத்தின் சுருக்கத்தின் அளவை (radius) கணக்கிடுதல். ### தொடர்பு: சுருக்கத்தின் அளவு வெக்டரின் வேகத்தை விட அதிகமாக இருந்தால், வட்டத்தின் விளிம்பு (curl) உருவாகும். ### முரண்பாடு: சுருக்கத்தின் அளவு வெக்டரின் வேகத்தை விடக் குறைவாக இருந்தால், வட்டத்தின் விளிம்பு உருவாகாது. ### விடை: வட்டத்தின் சுருக்கத்தின் அளவு வெக்டரின் வேகத்தை விட அதிகமாக இருந்தால், விளிம்பு உருவாகும். ### குறிப்பு: வட்டத்தின் சுருக்கத்தின் அளவை வெக்டரின் வேகத்தைப் பயன்படுத்தி பெருக்கினால் வெக்டரின் வேகம் கிடைக்கும். ### பெட்டளவு: வட்டத்தின் சுருக்கத்தின் அளவு வெக்டரின் வேகத்தை விட குறைவாக இருந்தால், அந்த வட்டத்தின் விளிம்பு எங்கும் இருக்காது. ### பயன்பாடு: வட்டத்தின் சுருக்கத்தின் அளவு வெக்டரின் வேகத்தை விட அதிகமாக இருந்தால், வட்டத்தின் விளிம்பு உருவாகும். ### கவனிக்க வேண்டியவை: * வட்டத்தின் மையப் புள்ளியைக் கண்டுபிடிப்பது. * வெக்டரின் வேகத்தை சரியாகக் கணக்கிடுவது. * வட்டத்தின் சுருக்கத்தை வெக்டரின் வேகத்தால் பெருக்கிப் பாருங்கள். * வட்டத்தின் மையத்திலிருந்து வெக்டரின் தூரத்தை கணக்கிடுங்கள். * வட்டத்தின் சுருக்கத்தின் அளவை வெக்டரின் வேகத்தால் பெருக்கினால், அந்த வட்டம் வெட்டுவதற்கு உட்பட்டது. இப்படித்தான் வட்டத்தின் விளிம்பு உருவாகிறது.

Analysis

The base model largely fails to understand the question and produces text that is vague and only partly in Kannada.

Kannada SFTScore: 0.060
<reasoning> ### ಮೂಲ ಕಲ್ಪನೆ: ಒಂದು ಚದರ ಸ್ಥಳ ಮತ್ತು ನಿರ್ದಿಷ್ಟ ವೆಕ್ಟರ್‌ಗಳ ನಡುವಿನ ಸಂಬಂಧ. ಗಾಧೈಕವಾದ ಸತ್ವಗಳು, ವಿಶ್ಲೇಷಣಗಳ ನಡುವಣ ಪ್ರಬೂಹದ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸುತ್ತದೆ. ### ಮೊದಲ ಸಿದ್ಧಾಂತಗಳು: 1. ಉತ್ತಮ ರಚನೆಯಲ್ಲಿ ಚದರ ಎಲೆ ಒಂದು 20-೨ರ ಆಮ್ಸಿಯ ಸಮಾಧಾರ ರೂಪದಲ್ಲಿರುತ್ತದೆ. 2. ತೀರ್ಮಿತ್ತ ಮುಖಾಮುಖೆಯಲ್ಲಿ ವೆಕ್ಟರ್‌ಗಳು ಚದರ ಎಲೆಗಳನ್ನು ಒಳಗೊಂಡರೆ ಆಮ್ಸಿಯ ಪರಿಣಾಮಗಳು, ವೆಕ್ಟರ್‌ಗಳು ಚದರ ಎಲೆಗಳ ಮೇಲೆ ಕಂಡುಬರುತ್ತವೆ. 3. ವೆಕ್ಟರ್‌ಗಳು ಚದರ ಎಲೆಗಳ ಮೇಲಿನ ಎಲೆಗಳಲ್ಲಿ ಪ್ರದರ್ಶಿಸಲ್ಪಟ್ಟರೆ ಉತ್ತಮ ರಚನೆಯಲ್ಲಿ ಅನ್ವಯಿಸಲಾಗದಂತೆ ಆಮ್ಸಿಯ ಎಲೆಗಳಿಂದ ನಿರ್ಚಲಿತ ಏಕಗತದಲ್ಲಿ ಪರೀಕ್ಷೆಯಾಗುವ ಪಟ್ಟಿಗಳು ಸರಿಯಾಗಿ ಪ್ರಪಂಚದ ಕಳೆದು ಬಂದಂತೆ. 4. ಬೇರೆ ಬೇರೆ ಚದರ ಆಕಾರಗಳಲ್ಲಿ ವೆಕ್ಟರ್‌ಗಳು ಪಟ್ಟಣಗಳಾಗುವಂತೆಯೇ ಉಪನ್ಯಾಸಗಳಿವೆ. ಪಟ್ಟಣಗಳಿಗಾಗಿ ವೆಕ್ಟರ್‌ಗಳನ್ನು ಚದರ ಆಕಾರಗಳನ್ನೂ ಸಮರ್ಥಿರಿಸುವ ಕಷ್ಟಪಟ್ಟು ಮತ್ತು ಹದಗೊಳಿಸುವುದು. 5. ಆಮ್ಸಿಯ ಚದರ ಎಲೆಗಳ ಒಳಗಿರುವ ಒಂದು ವೆಕ್ಟರ್‌ಗಳಿಗೆ 'ಕೃತness' ಎಂಬ ನಿವುಷೆ 'ಕೃತness' ಎಂಬ ಸಾಂತೆಯಿಕೆಯ ಮೂಲಕ ದೀರ್ಘ ಶೋಧವನ್ನು ನಿವ್ರವಣಿಸುವ ಪರಿಲ್ಪನೆಯನ್ನು ಸೂಚಿಸುತ್ತದೆ. ### ಮನಃಪೂರ್ವಕ ಮಾದರಿ: "ಅತಿ ಸೂಕ್ಷ್ಮ ಚದರ ಎಲೆಗಳನ್ನು ವೆಕ್ಟರ್‌ಗಳನ್ನು ಸಮರ್ಥಿರಿಸುವ ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನಂತಹ ರಚನೆಯಲ್ಲಿ ಮಿತಿಯವರೂ ಇಲ್ಲ ಎಂದು ಭಾವಿಸಿರಿ." ಎಂದರೆ ನೀವು ವೆಕ್ಟರ್‌ಗಳನ್ನು ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನಂತೇ ಸಮರ್ಥಿರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ### ಸಾಮಾನ್ಯ ತಪ್ಪುಗಳು: 1. ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಸ್ನಾನಗತಿಯಲ್ಲ ಎಂಬಂತೆ ಭಾವಿಸಿರಿ. ಅಂದರೆ ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಚದರ ಅಥವಾ ಆಮ್ಸಿಯಾಗಿದ್ದಂತೆ ಪರೀಕ್ಷೆಗಾಗಿ ಬಳಸಬೇಕೆಂದು ನಮಗೆ ಭಾವಿಸುವುದು. 2. 'ಇನ್ನು ಎಲ್ಲ ಅಧಿಪತ್ಯಗಳಂಥ ರಚನೆಯಲ್ಲಿ ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನಂತೆಯೇ ಇಲ್ಲ, ಬನ್ನ."). ### ವಿವರಿಸುವ ಪರೀಕ್ಷೆಗಳು ಮತ್ತು ಮಿತಿಗಳು: 1. ವೆಕ್ಟರ್‌ಗಳು ಅಮ್ಸಿಯ ದ્રುವೆಯ ಮೇಲೆ ಕಂಡುಬರುತ್ತವೆ. 2. ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನ ಎಲೆಗಳಿಗಿರುವ 'ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್' ಎಂತೆ ಕಾಣುವುದು. 3. ವೆಕ್ಟರ್‌ಗಳ ನಡುವಿನ ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಒಂದು 'ಕೃತness' ಎಂತೆ ಕಾಣಬೇಕು. 4. ವೆಕ್ಟರ್‌ಗಳನ್ನು 'ಆಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್'ನಲ್ಲಿವೆಂದి ಮಾಡಬಹುದು. ### ಭೌಸಿಕ ನಿಯಮಗಳು: ಚದರ ಆಕಾರಗಳು ಅಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನಂತೆ ಕಾಣುತ್ತವೆ ಮತ್ತು ನಿರಂತರವಾಗಿ ಅಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್‌ನ ಆವರ್ಷಗಳಿಗಿರುವ 'ಆಮ್ಸಿಯ ಒಂದು ಕೃತness' ಎಂತೆ ಕಾಣಬರುತ್ತದೆ. ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಚದರಗಳಿಗೆ ಅನುಸರಿಸುವಂತೆ ಇರುತ್ತವೆ. ವೆಕ್ಟರ್‌ಗಳು ಆಮ್ಸಿಯ ಪ್ರಭಾಯೆ ಅಥವಾ ಆಮ್ಸಿಯಾಗಿದ್ದಂತೆ ಅನ್ವಯಿಸಲಾಗದಿರುವಂತೆ ಒಂದು ನಿರಂತರ ಆಮ್ಸಿಯ ಹಂತದ ದ್ರೂಪಗಳು ಆಗುತ್ತವೆ, ಇದನ್ನು 'ಕೊರಕಪಾಗೆ' ಹೆಚ್ಚುವರಿಯಾಗಿ ದತ್ತಿ ಮಾಡಬೇಕು. ### ಮಾಪನಗಳು: ಅತ್ಯಂತ ವಿಶೇಷವೆ ಮತ್ತು ದೈಹಿಕವಾಗಿ ಪತ್ತೆಯಾದದ್ದರಿಂದ, ನೂಬಾスの ಕಂತಿಗೆ ಸೇರಿರುವ ನಿರ್ದಿಷ್ಟ ಸಂಯೋಜನೆಯನ್ನು ಹೊಂದಿಸಿ ಮಾಡಲಾಗುತ್ತದೆ. ದ್ರೂಪಗಳ ಗಾಯಗಳನ್ನು ಹೆಚ್ಚಿಸುವ 'ಸುರಂಗನೆ' ಎಂಬ ನಿವುಷೆ 'ಸುರಂಗನೆ' ಎಂಬ ಅಂದರೆ ಒಂದು 'ಕೃತness' ಎಂತೆ ಕಾಣಿಸುತ್ತದೆ. ಸುರಂಗನೆ ವಿಲ್ ಎಂದು, ಎಲೆಗಳಲ್ಲಿ, 'ಸತ್ವ ಎಲೆಗಳು' ಎಂಬ 'ಕೃತness' ಎಂತೆ ಕಾಣಿಸುತ್ತದೆ. ಪ್ರತಿ 'ಅತಿ ಸೂಕ್ಷ್ಮ ಚದರ ಎಲೆ' ಎಂಬುದು ಒಂದು 'ಅಮ್ಸಿಯ ಆೋರ್ಟೊפלೇಮಿಟ್'ನಲ್ಲಿವೆಂದędzie, ವೆಕ್ಟರ್‌ಗಳು ಅವುಗಳ ಲೆ

Analysis

After general Kannada SFT, the model becomes much more fluent, but it still lacks the domain knowledge needed to explain curl or area-element rotation. That's expected—general SFT teaches language, not physics.

Physics SFTScore: 2.210
<reasoning> ಮುಖ್ಯ ಕಲ್ಪನೆ: ಎರಡು ಮೌಲ್ಯಗಳು ಒಂದು ಸೂಕ್ಷ್ಮ ಚದರ ಸುತ್ತಲಿನ ಚದರ ಕ್ಷೇತ್ರದ ಚಲನವೇದನ್ನು ಗುರುತಿಸುತ್ತವೆ. ಮೊದಲ ತತ್ತ್ವಗಳು: ಪೈಪ್‌ನ ಗಡಿ, ವೇಕ್ಟರ್‌ಗಳು ಮತ್ತು ಅವುಗಳ ನಡುವೆ ಸ್ಥಿರವಾಗುವ gradientಗಳು ಇಲ್ಲವೆ Curl ಇರುತ್ತವೆ. ಇಚ್ಸ್ವಾಮಿ ಮಾದರಿ: ಚದರವಿಲ್ಲದೆ ಸುತ್ತುವರಿಯನ್ನು ವಸ್ತುವಾದ ಒಂದು ಚಕ್ರವಾಗಿ ಮಾದರಿ ಮಾಡಿದರೆ, ಅದರ ಚದರ ಕ್ಷೇತ್ರದ gradient ಮತ್ತು ಅದರ ವೆಕ್ಟರ್‌ಗಳು ಸೇರಿಕೊಂಡು ಚದರದಲ್ಲಿ ಚಲನವನ್ನು ತೋಡುತ್ತವೆ. ಉಪಾಯಗಳು: ಒಂದು ಚಕ್ರವೇದಿಯಲ್ಲಿ ಚದರವು ರೇಡಿಯಸ್‌ನಲ್ಲಿದೆ ಎಂದು ಭಾವಿಸು: ಬರ್ಡ್ವೌಟ್ ಆಧಾರಿತ ಕಲ್ಪನೆ—ಕಡುವಿನ ಮೇಲೆ ಫ್ಲಿಪ್-ಯ ಕೋನದಲ್ಲಿ ಚಕ್ರದ ಪ್ರತಿಬಿಂಬಿಸಿ. ಉಪಮಪitudes: ವೆಕ್ಟರ್ಗಳು ನಿಂದವಾಗುತ್ತವೆ ಮತ್ತು ಅವು ಸ್ಥಳೀಯ ಭೌದಿಕ ವಿದ್ಯುತ್ ಕ್ಷೇತ್ರಗಳನ್ನು ಪೂರೈಸುತ್ತಿವೆ. ಪರಿಶೀಲನೆಗಳು ಮತ್ತು ಮಿತಿಗಳು: ಪ್ರತಿಯೊಂದು ಸೂಕ್ಷ್ಮ ಚದರವಿಲ್ಲದೇ ಸುತ್ತುವರಿಯನ್ನು ಪರಿಗಣಿಸಬೇಕು; ಮದನಗಳು ಚದರವಿಲ್ಲದೆ ಅಸಮಯವಾಗಿ ಚಲಿಸಿರಬಹುದು. ಅಧಿಕೇನ ವ್ಯಾಪ್ತಿ: ಸ್ಥಳೀಯ ಚದರಗಳನ್ನು ಪರಿಗಣಿಸುವ ಭೌತಿಕ ಕ್ಷೇತ್ರಗಳು. ಬಹು ದೃಷ್ಟಿಕೋನಗಳು: ರೇಖಾತ್ಮಕ ದೃಷ್ಟಿಕೋನ (ಚದರವಿಲ್ಲದೆ) ಮತ್ತು ಆಘಾತದ ದೃಷ್ಟಿಕೋನ (ಚದರವಿಲ್ಲದೆ ಇದ್ದರೆ) ಒಂದೇ ಚಕ್ರವನ್ನು ಸೂಚಿಸುತ್ತವೆ. ಕ್ರಾಸ್ ಲಿಂಕ್ಸ್: ನ್ಯೂಟನ್ ಕ್ಷೇತ್ರಗಳು ಮತ್ತು ಗಡುವು ನೈಜ ಕ್ಷೇತ್ರಗಳು. ಸಾಮಾನ್ಯ ತಪ್ಪುಗಳು: ಚದರದಲ್ಲಿ ಚಕ್ರವಾಗಿರುವುದನ್ನು ವಿಭಜಿಸಿ ನೋಡಲು ಕಲ್ಪಿಸುವುದು. ಕುತೂಹಲದ ಪ್ರಶ್ನೆಗಳು: ನಿಜವಾದ ಸಮವಿತರವಿರುವಂತೆ ಚಕ್ರದ ಎತೆ ಪಕ್ಕಗಳಿಗೆ ಹೊಂದಿಕೊಂಡಿದೆ ಎಂಬಂತೆ ಇದನ್ನು ಅನುಮಾನಿಸಬಹುದೇ? </reasoning> <explanation> ವಸ್ತುವಾದ ನಾಲ್ಕೆ ಚಕ್ರಗಳನ್ನು ನಾವು ಪ್ರತಿಬಿಂಬಿಸುತ್ತೇವೆ; ಚದರವು ವೆಕ್ಟರ್‌ಗಳಾಗಿದ್ದು, ಅವು ಸ್ಥಳೀಯ gradientಗಳ ಗುಡುಗೆ ಹಿಂತಿರುಗುತ್ತದೆ. ಎರಡು ಸಣ್ಣ ಚಕ್ರಗಳು ಪೈಪ್‌ಗೆ ತಿರುಗುವಾಗ, ಅವು ವೇಕ್ಟರ್‌ಗಳು ಮತ್ತು ಅವುಗಳು ಚದರದಲ್ಲಿ ಚಲಿಸಿರುವಂತೆ ನೋಡುತ್ತವೆ. ಕಲ್ಪಿಸುವಂತೆ ಅದು ಆಪ್ಟಾಸಮಿನಲ್ ಚಕ್ರವಿಲ್ಲದೆ ಚದರದ ಚಲನವೇದನ್ನು ಕಾಣುತ್ತದೆ: 1°/s ನಲ್ಲಿ ರೇಖಾತ್ಮಕವಾಗಿ ಚಲಿಸುತ್ತಿರುವ ಒಂದು ಚಕ್ರ. ಅಂತಿಮವಾಗಿ, ನಾವು ವೇಕ್ಟರ್‌ಗಳಿಗೆ ನೇರ gradientಗಳನ್ನು ಹೊಂದಿರುವ ಮೇಲಿನ ಮೇಲ್ಮೈಯಲ್ಲಿ ತರಂಗ ಕಾಯಿಸುತ್ತಿದ್ದೇವೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುತ್ತೇವೆ — ಎಲ್ಲಿ 1°/s ವೇಕ್ಟರ್‌ಗೆ ನಿಂದವಾಗುತ್ತದೆ. ಆ ಪೋಲರ್‌ನ ಘನ ಅರಿವಣೆಯಂತೆ—ಒಂದು ಚಕ್ರವಿಲ್ಲದಾಗಲೂ ಚಾರ್ಜ್‌ಗಳು ಚದರದಲ್ಲಿ ಚಲಿಸುತ್ತವೆ. </explanation>

Analysis

The breakthrough comes with Physics SFT, where the model is fine-tuned on a curated dataset of physics reasoning and Feynman-style explanations. Here, the model finally explains curl as a measure of rotational tendency—a core conceptual idea. The answer becomes structured, relevant, and intuitively meaningful.

Physics + RAGScore: 3.900
<reasoning> ಇんಮುವಾಗಿ ಚದರದಲ್ಲಿ ಒಂದು ಅತಿ ಸೂಕ್ಷ್ಮ ಚದರವೃತ್ತ ಇದ್ದಂತೆ; ಅದರ ಆಕರ್ಷಣವು ಸ್ಥಳೀಯವಾಗಿ ಮರಳಿ ಬರುವಂತೆ (rotation) ಆಗಿದೆ. ಈ ಚದರ ಪ್ರದೇಶವನ್ನು ಕರಳಿ ಮರುವೃತ್ತಿ (circular motion) ಅಥವಾ ಒಂದು ಅಸಮಾನ ಆಯಾಮವಿಲ್ಲದ ಬದಿಗಳ ಸುತ್ತಾಟ ಇಟ್ಟುಕೊಳ್ಳಿದರೆ, ಅದರ ಮೇಲ ಮತ್ತು ಬಲದ gradient-ನ ಸುತ್ತಾಟವೇ ಚದರ ತರಂಗದ ಮೇಲೆ ಚಲಿಸುವ ಗುಣಿಯನ್ನು ಉಳಿಯುತ್ತದೆ. ಅತಿ ಸೂಕ್ಷ್ಮ_LOOP ಮಿತಿ ಮಾತ್ರ ಪ್ರಕಾರ. </reasoning> <explanation> ಪ್ರಮಾಣವಾಗಿ ಇದ್ದಾಗ, ಒಂದು ಅತಿ ಸೂಕ್ಷ್ಮ ಅಡಿಯಲ್ಲಿ ಸಮೀಪ ಋಣಮಟ್ಟೆಗಳ ಸುತ್ತುವರಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ಸ್ಥಳೀಯವಾಗಿ ಮರಳಿ ಬರುವಂತೆ ಕಲ್ಪಿಸುವುದು; ಅಂತರದಲ್ಲಿ ಇರುವ ಸ್ಥಳೀಯ ಮರಳಿ ಬಸ್ಥವೆ ಗತಿಯ ಸಮನ್ಮಿತವಾಗಿರಬಲ್ಲಂತೆ. ಆದ್ದರಿಂದ ನಾವು ಚದರದಲ್ಲಿರುವ ಚದರದ ಮೇಲಿರುವ ಕ್ರಾಸ್ ವೃತ್ತಗಳ ಸುತ್ತಾಟಗಳನ್ನು ಸರಿಹೊಂದಿಸಬಹುದು; ಬದಿಗಳ ಸುತ್ತಾಟವು ಕೇವಲ ಚಲನೆ, ಚದರ ತರಂಗವು curl ಮೂಲಕ ತಿರುವುವಂತೆ. </explanation>

Analysis

The RAG-enhanced model then adds authoritative factual grounding by retrieving the correct physics context before answering. The result is a clean, mathematically correct, intuitive explanation fully in Kannada—exactly what a human physics tutor would say. This demonstrates how SFT improves fluency and reasoning patterns, while RAG ensures factual precision.

Click on a column to highlight it. The progression shows: language fluency → domain reasoning → factual grounding.

Detailed Training Specifications

Training Pipeline Overview

Training Pipeline Architecture

The complete training pipeline flows from a base open-source model through two stages of SFT (Kannada language → Physics reasoning) and finally RAG integration for factual grounding. Each stage builds on the previous one to compound improvements.

Data Preparation

Kannada SFT Data

General Kannada text corpus (news, essays, conversations)

Physics SFT Data

Custom physics Q&A with Feynman-style reasoning traces in Kannada

RAG Knowledge Base

Physics textbook chapters in Kannada (vector store)

Feynman-Style Reasoning Trace Structure

The Physics SFT dataset includes structured reasoning traces that teach the model to think like Feynman—building intuition before formulas. Each training example follows this 8-step approach:

1
Identify Core Idea

State the simplest underlying principle of the concept.

2
First Principles Reasoning

Break down the idea into its most basic elements, avoiding jargon at first.

3
Analogies & Everyday Examples

Relate the concept to familiar, tangible experiences (blocks, water, children's games, etc.).

4
Curiosity Hooks

Ask playful or intriguing questions that spark further interest ("Why should nature behave this way?")

5
Progressive Depth

Gradually increase rigor—from intuition → simple mathematics → abstract reasoning—always showing why each step matters.

6
Cross-Connections

Show how this idea connects to other areas of physics or science.

7
Humility & Limits

Acknowledge approximations, open questions, or where the laws might break down.

8
Engagement & Clarity

Keep the tone conversational, clear, and inspiring—as if talking to bright but curious students.

Impact: This structured approach trains the model to not just recite formulas, but to build genuine conceptual understanding—teaching why physics works, not just what the equations are.

Training Configuration

Hardware

  • GPU: 1x A40 (48 GB VRAM)
  • Framework: PyTorch with HuggingFace Transformers

Stage 1: General Kannada SFT

Training Steps: 80

Epochs: 1

Batch Size: 8

Max Learning Rate: 5e-5

Initial Training Loss: 4.709

Final Training Loss: 2.898

Final Eval Loss: 2.912

Eval Interval: Every 5 steps

Trained on diverse Kannada text to establish language fluency and natural expression patterns.

Stage 2: Physics Kannada SFT

Training Steps: 90

Epochs: 1

Batch Size: 8

Max Learning Rate: 5e-5

Initial Training Loss: 3.248

Final Training Loss: 2.448

Final Eval Loss: 2.474

Eval Interval: Every 10 steps

Fine-tuned on custom physics Q&A with Feynman-style reasoning traces, teaching conceptual understanding and step-by-step derivations.

Training Progression:

  • Stage 1 reduced eval loss from 4.71 → 2.91 (38% reduction)
  • Stage 2 further reduced eval loss from 3.25 → 2.47 (24% reduction)
  • Healthy train/eval gap indicates good generalization without overfitting
  • Cosine learning rate schedule with warmup for stable optimization

Key Learnings

1

Low-Resource Language Fine-Tuning

Separating language fluency (Kannada SFT) from domain knowledge (Physics SFT) allows the model to learn each skill independently before combining them. This staged approach is more effective than trying to learn both simultaneously.

2

Multi-Stage SFT Compounds Benefits

Each stage adds measurable value: language quality → reasoning patterns → factual accuracy. The boxplots clearly show that each stage shifts the performance distribution upward.

3

RAG as a Grounding Layer

Fine-tuned models can reason well but may still hallucinate details. Adding RAG (retrieving relevant physics context before generation) dramatically improves factual accuracy without additional training.

4

LLM-as-Judge for Evaluation

Building a complete evaluation pipeline with LLM-as-judge, quantitative metrics (distributions, boxplots), and qualitative analysis provides a full picture of model capability—essential for demonstrating product viability.

From Demo to Product: AI-Powered Physics Education for Rural India

This trained model demonstrates the foundation for a scalable educational platform—a system designed for government schools and rural communities across India where students often lack access to quality STEM education in their native language.

Instead of replacing teachers, this platform acts as an always-available AI tutor that supplements classroom learning, provides personalized explanations, and helps students build deep conceptual understanding in their mother tongue—whether it's Kannada, Hindi, Tamil, Telugu, or any of India's 22 official languages.

The Challenge in Rural India

🏫Language Barrier

In rural Karnataka, 85% of students study in Kannada-medium schools, but most quality educational resources (textbooks, videos, tutoring) are only available in English. This creates a fundamental comprehension gap in STEM subjects like Physics.

👨‍🏫Teacher Shortage

Government schools face chronic shortages of qualified physics teachers. Many schools share one teacher across multiple subjects or grades, leaving little time for conceptual depth or individual student attention.

📚Rote Learning Culture

Traditional teaching emphasizes memorizing formulas and procedures without understanding. Students can solve textbook problems but struggle to explain why physics works—exactly what Feynman-style teaching addresses.

💰Cost of Private Tutoring

Private physics tutoring costs ₹3,000-5,000/month ($35-60)—unaffordable for families earning ₹15,000/month. This creates an educational divide where only urban, affluent students get quality conceptual teaching.

Product Architecture: Multi-Agent AI Tutor System

1

Concept Explainer Agent

Feynman-Style Intuitive Teaching

This is where our Physics+RAG model powers the system. When students ask physics questions, this agent generates Feynman-style explanations with analogies, step-by-step reasoning, and visual intuition.

Student Input

  • • Voice or text questions in Kannada
  • • "I don't understand why..." prompts
  • • Follow-up clarifications

Agent Output

  • • Conceptual explanations in Kannada
  • • Real-world analogies (village examples)
  • • Progressive depth (intuition → math)
2

Practice Problem Generator

Adaptive Problem Sets & Step-by-Step Solutions

Generates contextually relevant practice problems based on the student's current chapter and difficulty level, with detailed worked solutions that teach the problem-solving approach.

Features

  • • Chapter-aligned problem generation
  • • Difficulty progression (easy → hard)
  • • Culturally relevant scenarios

Student Benefits

  • • Unlimited practice questions
  • • Instant feedback on approach
  • • Learn from worked examples
3

Learning Path Advisor

Personalized Curriculum & Gap Analysis

Tracks student progress across chapters, identifies conceptual gaps, and recommends targeted review topics before moving to advanced concepts.

Analytics Tracked

  • • Weak vs. strong concept areas
  • • Time spent per topic
  • • Question accuracy patterns

Adaptive Actions

  • • Suggest prerequisite review
  • • Adjust difficulty dynamically
  • • Recommend practice focus areas
4

Exam Preparation Coach

Board Exam Focused Support

Provides targeted support for Karnataka SSLC (10th) and PUC (12th) board exams, including previous year question analysis, common mistake patterns, and exam strategy guidance.

Exam Focus

  • • Previous year papers (2015-2024)
  • • High-weightage topic identification
  • • Marking scheme understanding

Strategic Prep

  • • Mock tests with scoring
  • • Answer writing practice
  • • Time management strategies

Why This Becomes a Viable Social Enterprise

🌍Multi-Language Scalability

The same multi-stage fine-tuning approach (General Language SFT → Physics SFT → RAG) can be replicated for Hindi, Tamil, Telugu, Marathi, Bengali, and other regional languages. Train once per language, deploy nationwide. Start with Kannada (6 crore speakers), then expand to Hindi (55 crore speakers) for massive impact.

📱Mobile-First, Offline-Capable

Deploy lightweight models (1B-3B parameters) that run efficiently on mobile devices. Students can download chapter-specific models and knowledge bases for offline use—critical for rural areas with unreliable internet. Voice input removes typing barriers for students uncomfortable with keyboards.

💡Proven Pedagogy + AI Scale

Feynman's teaching method is proven effective but relies on rare, exceptional teachers. By encoding this pedagogy into fine-tuned models, we democratize access to world-class physics teaching. Every student, regardless of location or family income, gets a patient, always-available tutor who explains concepts intuitively.

🎯Sustainable Revenue Model

Freemium approach: Basic concept explanations free for all students. Premium features (adaptive practice, exam prep, learning analytics) at ₹99/month ($1.20)—affordable even for low-income families. Government partnerships and NGO sponsorships subsidize access for students below poverty line. B2B licensing to private coaching centers.

Path to Impact at Scale

1
Pilot in 50 Karnataka Government Schools (Year 1)

Partner with Karnataka State Education Department. Deploy in 50 rural high schools (~25,000 students). Track learning outcomes: concept test scores, board exam performance, student engagement metrics. Gather teacher and student feedback for product iteration.

2
Expand to All Karnataka Schools (Year 2)

Scale to all 10,000+ government high schools in Karnataka (~2.5 million students). Launch premium tier for parents who want advanced features. Begin training models for Hindi, Tamil, and Telugu based on the proven Kannada pipeline.

3
National Rollout Across India (Year 3-5)

Launch in other states with regional language models. Partner with central government initiatives like Digital India and National Education Policy 2020 (which emphasizes mother-tongue education). Target: 50 million students across 10+ languages. Expand to Chemistry, Math, and Biology using the same SFT+RAG architecture.

4
Continuous Improvement via RLHF

Collect student ratings on explanations ("Was this helpful?"). Track which analogies work best for different concepts. Use this feedback for reinforcement learning from human feedback (RLHF) to continuously improve explanation quality. Models learn to adapt teaching style based on what resonates with Indian students.

From Technical Demo to Social Impact Startup

This case study proves the foundational technology works: we can fine-tune models to teach complex STEM concepts intuitively in low-resource languages, evaluate quality rigorously, and ground explanations with RAG to prevent hallucinations.

The product layer—multi-agent tutoring, mobile-first delivery, exam preparation support, and teacher dashboards—transforms this technical capability into a scalable social enterprise. The goal isn't to replace teachers; it's to empower every student in rural India with a personalized physics tutor who speaks their language and teaches like Feynman—bridging the educational divide between urban privilege and rural potential.