Off Grid: open-source iOS/Android app running Gemma/Qwen/Llama/Phi locally via llama.cpp (1.7k stars, opening paid pre-orders to fund Pro features)

Posted by CamusCave@reddit | LocalLLaMA | View on Reddit | 0 comments

Hey r/LocalLLaMA — long-time lurker, wanted to share what we've been building.                                                                                                                                                                                              Off Grid is an open-source iOS/Android app that runs LLMs entirely on-device. No cloud, no account, no telemetry. Built on llama.cpp + GGUF, supports Gemma 3, Qwen 3, Llama 3.2, Phi 4, DeepSeek R1 distill,    

Mistral. Whisper for voice input, Kokoro for voice output — all on the phone.                                                                                                                                                                                                            

GitHub: https://github.com/alichherawalla/off-grid-mobile-ai (1,733 stars, MIT)                                                                                                                                  

Android: https://play.google.com/store/apps/details?id=ai.offgridmobile (10k+ installs, 4.0★)

iOS: https://apps.apple.com/us/app/off-grid-local-ai/id6759299882 (4.3★)                                                                                                                                                                                                                                                                                                     What it does today (free, OSS, stays free):                                                                                                                                                 Chat with any GGUF model that fits in your phone's RAM. 1B-3B comfortably; 7B on flagship phones (8GB+ RAM); 13B on tablets/Pro Max.                                                                            Vision via LLaVA-style multimodal models on supported runtimes.                                                                                                 Web summarisation, document Q&A.                                                  Tool use: web search, calculator (offline-capable).                                                                                                                                                                                                                                                    What's coming as a paid Pro tier (8-12 weeks out):                                                                                                                                           Unlimited local knowledge bases — load PDFs/notes, RAG runs entirely on-device                                                                                  Custom personas (system prompts, voice, memory)                                                                                                                                  Calendar / email / MCP servers (Linear, Notion, GitHub) for agentic workflows

On-device voice mode end-to-end (Whisper + Kokoro)                                                                                                                                      The ask, since we're doing this in public: I'm opening pre-orders for the Pro tier to fund the next 12 weeks of development. First 100 supporters lock in lifetime access for $10. After 100, lifetime moves to  a different price!

12-week refund guarantee — if Pro isn't in your hands in 12 weeks from your payment, full refund, no questions.                                                                                                                   

Will be in the comments answering anything for the next 24 hours. Roast away