Vergleiche Coding-Pläne
Coding-Assistenten revolutionieren die Softwareentwicklung. Vergleiche Coding-Abos von Z.ai, Alibaba, Claude, MiniMax und vielen weiteren Anbietern, um das beste Preis-Leistungs-Angebot zu finden.
Anbieter
Wähle das richtige Abo für deinen AI-gestützten Entwickler-Workflow
Vergleich der Coding-Pläne
Wähle das richtige Abo für deinen AI-gestützten Entwickler-Workflow

Alibaba / Qwen
Aktualisiert: 2026-05-13
LLM Modelle (10)
Features
- Mehrere Modellanbieter
- Vision-Unterstützung
- 1M Kontext bei qwen3.6-plus
- OpenAI-kompatibler Endpunkt
- Anthropic-kompatibler Endpunkt
Hinweise
- • 5-Stunden-Quota mit gleitendem Fenster (Zurücksetzen 5h nach Nutzung)
- • Wöchentliche Quota wird montags 00:00 UTC+8 zurückgesetzt
- • API-Schlüsselformat: sk-sp-xxx
Baidu Qianfan
Aktualisiert: 2026-05-13
LLM Modelle (6)
Coding Tools
Features
- Multi-Provider-Modellzugang
- Prompt-Caching-Unterstützung
- Hoher Durchsatz
- Sicherheit auf Unternehmensniveau
Hinweise
- • Lite: ~1.200 Anfragen/5h, ~9.000/Woche, ~18.000/Monat
- • Pro: ~6.000 Anfragen/5h, ~45.000/Woche, ~90.000/Monat
- • Unterstützt Kimi-K2.5, DeepSeek-V3.2, GLM-5, MiniMax-M2.5, ERNIE-4.5-Turbo-20260402
Cerebras Code
Aktualisiert: 2026-05-13
LLM Modelle (3)
Features
- Schnellste Inferenz der Welt (20x schneller als GPU)
- Wafer-Scale Engine
- Hohe Kontext-Vervollständigungen
- Multi-Agenten-Systeme
- IDE-Integrationen
- Code-Refactoring
Hinweise
- • Cerebras Code: 50$/Monat (Pro) oder 200$/Monat (Max)
- • Inference API: Kostenlose Version verfügbar, Developer ab 10$
- • 20x schnellere Inferenz als GPU-basierte Systeme
- • Modelle gehostet auf Wafer-Scale Engine für extreme Durchsatzleistung
- • Enterprise: Custom Model-Gewichte, Fine-Tuning, dedizierter Support

Claude / Anthropic
Aktualisiert: 2026-05-13
LLM Modelle (11)
Features
- Vision-Unterstützung
- Web-Suche
- Erinnerungen über Gespräche
- Code-Ausführung
- Artifacts
- Research
- Skills
- MCP-Konnektoren
- Sprachmodus
Hinweise
- • Free-Tier enthält Claude Code
- • Pro: 20$/Monat (monatlich) oder 17$/Monat (jährlich, 200$/Jahr)
- • Max: Ab 100$/Monat, wähle 5x oder 20x mehr Nutzung
- • Alle Pläne enthalten Claude Code CLI
CTCloud
Aktualisiert: 2026-05-13
LLM Modelle (7)
Coding Tools
Features
- GLM-Modellfamilie-Zugang
- Spitzen-/Nebenzeiten-Kontingent
- Wöchentliche Nutzungsgrenzen
- Mehrstufige Pläne
Hinweise
- • GLM-5.1/5-Turbo: 3x Kontingent in Spitzenzeiten (14:00-18:00 UTC+8), 2x außerhalb
- • Zeitlich begrenzt: GLM-5.1/5-Turbo nur 1x außerhalb der Spitzenzeiten bis Ende Juni
- • Wöchentliche Grenzen: 5x das 5-Stunden-Kontingent
- • API: api.ctyun.cn/api/anthropic für Claude Code, api.ctyun.cn/api/coding/paas/v4 für andere
Firmware
Aktualisiert: 2026-05-13
LLM Modelle (26)
Coding Tools
Features
- Browser-Automatisierung (Sidekick)
- Multi-Provider-Modellzugang
- Doc Flows
- Bildgenerierung (DALL-E-3, Imagen 4)
- Audio-Transkription (ElevenLabs, Whisper)
- Embeddings (OpenAI, Voyage, Google)
- Rerank (Voyage)
- Browser Agent MCP
- Credit-basiertes System
- Bis zu 2M Kontext (Grok)
Hinweise
- • Credit-basiertes System: 1 Credit = 2500 Standard-Tokens
- • Free-Tier: Sidekick Fast mit begrenzter AI-Nutzung
- • Starter: Sidekick Pro, beliebiges Modell, 100 Bilder/Monat
- • Pro: 5x Nutzung, 500 Bilder/Monat, priorisierte Zugang
- • API-Endpunkt: app.frogbot.ai/api
- • OpenAI-kompatibles API-Format

GitHub Copilot
Aktualisiert: 2026-05-13
LLM Modelle (6)
Features
- KI-Pair-Programmierung
- Code-Vervollständigungen
- Chat-Unterstützung
- Agent-Modus
- CLI-Integration
- Code-Review
- MCP-Unterstützung
- Multi-IDE-Unterstützung
- GitHub.com-Integration
- IP-Schadlosstellung
Hinweise
- • Am weitesten verbreitetes KI-Developer-Tool weltweit
- • Nativ in GitHub integriert - anders als andere KI-Coding-Assistenten
- • Integriert mit führenden Editoren: VS Code, Visual Studio, JetBrains, Neovim
- • Erzeugt Vorschläge mittels probabilistischer Bestimmung (kein Kopieren/Einfügen)
- • Trainiert auf öffentlichem Code aus GitHub-Repositorys
- • Verwendet keine Business/Enterprise-Daten zum Trainieren der Modelle
- • DSGVO-konform mittels Data Protection Agreement
- • Registrierung für Pro/Pro+ wegen Kapazitätsengpässen pausiert (April 2026)
- • Rückerstattung für April-Gebühren bis 20. Mai 2026 verfügbar
- • Opus 4.5 und 4.6 werden aus allen Plänen entfernt
GitLab Duo
Aktualisiert: 2026-05-13
LLM Modelle (11)
Coding Tools
Features
- Agentic Chat mit Multi-Step-Reasoning
- Code-Vorschläge (50 Ausführungen/Credit)
- Code-Review-Flow (4 Ausführungen/Credit)
- Fundamentale Agents (Planer, Security-Analyst, Data-Analyst)
- Fundamentale Flows (Issue zu MR, Pipeline-Fix, Konvertierung zu GitLab CI)
- Modell-Auswahl pro Feature
- AI-Katalog für Agent/Flow-Management
- Custom Agents & Flows
- Externe Agent-Integration (Claude Code, Codex)
- MCP-Integrationen
- Self-Hosted-Modelle-Option
- IP-Schadlosstellung
- Privacy-First (privater Code nicht für Training verwendet)
Hinweise
- • Nutzungsbasierte Abrechnung via GitLab Credits ($1/Credit)
- • Premium enthält $12 Credits/User/Monat, Ultimate enthält $24 Credits/User/Monat
- • Verschiedene Modelle verbrauchen Credits unterschiedlich (z.B. Claude Opus 4.7: 1,1 Aufrufe/Credit, Claude Sonnet 4.6: 2,0 Aufrufe/Credit)
- • Standardmodell: Claude Sonnet 4.6 für Agentic Chat und Code Review
- • Duo Core kostenlos enthalten mit Premium/Ultimate (GitLab 18.0+)
- • Unterstützt 14+ Programmiersprachen

Google Gemini Code Assist
Aktualisiert: 2026-05-13
LLM Modelle (6)
Coding Tools
Features
- IDE-Integration
- Code-Vervollständigungen
- Agent-Modus
- GitHub PR-Review
- MCP-Unterstützung
- 1M Kontext
- Firebase-Integration
- Cloud SQL-Assistenz
- BigQuery-Insights
- IP-Schadlosstellung
Hinweise
- • Free: 6.000 Code-Vervollständigungen/Tag, 240 Chat-Anfragen/Tag
- • Standard: 19$/Monat (jährlich) oder 22,80$/Monat
- • Enterprise: 45$/Monat (jährlich) oder 54$/Monat
- • Zugang zu Gemini 3 (Warteliste für die meisten Pläne)
- • Cloud Shell Editor: 50 Stunden/Woche kostenlos
Hugging Face
Aktualisiert: 2026-05-13
LLM Modelle (10)
Coding Tools
Features
- 355.969+ Open-Source-Modelle
- ZeroGPU (kostenloser H200 GPU-Zugang)
- Multi-Provider-Inferenz (Cerebras, Groq, Together, SambaNova)
- OpenAI-kompatible API
- Pay-as-you-go (kein Aufschlag)
- Inference Endpoints (dedizierte Deployments)
- MCP-Unterstützung
- Spaces Hosting
Hinweise
- • PRO: 9$/Monat mit 2,00$ Inferenz-Credits (20x Free-Tier)
- • ZeroGPU: NVIDIA H200 Hardware (70GB VRAM, Free-Tier verfügbar)
- • Inference Providers: Cerebras, Groq, Together, SambaNova, Fireworks, Replicate und mehr
- • OpenAI-kompatibler Endpunkt: router.huggingface.co/v1
- • Pay-as-you-go über enthaltenen Credits (gleiche Preise wie Provider)
iFlytek Astron
Aktualisiert: 2026-05-13
LLM Modelle (8)
Coding Tools
Features
- Multi-Provider-Modelle
- Token- und anfragenbasierte Pläne
- Updated Edition (April 2026)
- QPS-Grenzen (Anfragen pro Sekunde) je nach Plan
Hinweise
- • Updated Edition gestartet am 9. April 2026
- • First Month Edition nicht mehr verfügbar ab 9. April
- • Worry-Free: unbegrenzte Anfragen, QPS=20 (20 Anfragen pro Sekunde)
- • Professional: QPS=5 (5 Anfragen/Sekunde), Efficient: QPS=20 (20 Anfragen/Sekunde)
Infini-AI
Aktualisiert: 2026-05-13
LLM Modelle (8)
Coding Tools
Features
- Multi-Provider-Modellzugang
- Feste monatliche Anfragekontingente
- Wöchentliche und 5-Stunden-Grenzen
- GLM-5.1-Unterstützung hinzugefügt
Hinweise
- • Lite: 1.000 Anfragen/5h, 6.000/Woche, 12.000/Monat
- • Pro: 5.000 Anfragen/5h, 30.000/Woche, 60.000/Monat
- • GLM-5.1-Unterstützung am 9. April 2026 hinzugefügt
JD Cloud
Aktualisiert: 2026-05-13
LLM Modelle (7)
Coding Tools
Features
- Multi-Provider-Modellzugang
- Einstiegspreise für Neukunden
- Hohe Anfragekontingente
- Kimi-K2-Turbo-Unterstützung
Hinweise
- • Neukunden-Einführungspreise: Lite $1, Pro $6 erster Monat
- • Reguläre Preise nach erstem Monat
- • Unterstützt Kimi-K2-Turbo (exklusiv)
Kimi Code
Aktualisiert: 2026-05-13
LLM Modelle (3)
Features
- Vision-Unterstützung
- Tiefenrecherche
- Agent-Swarm-Vorschau
- Kimi Claw
- Bis zu 100 Tokens/s
Hinweise
- • Kimi Code ist in der Kimi-Mitgliedschaft enthalten
- • Auch über den Alibaba Coding Plan verfügbar
- • Installation: curl -L code.kimi.com/install.sh | bash
- • Wöchentlich erneuerte Nutzungsquotas
- • Max. Parallelität: 30
KwaiKAT
Aktualisiert: 2026-05-13
LLM Modelle (2)
Features
- Dateiübergreifendes Verständnis
- Repository-weite Analyse
- KAT-Coder-Pro V2: Agentische Aufgaben (89,5% τ²-Bench)
Hinweise
- • 1 Prompt ≈ 15-20 Modellaufrufe
- • 60 RPM / 2M TPM Rate-Limit
- • 5-Stunden-Quota mit festem Fenster
- • API: wanqing.streamlakeapi.com
- • KAT-Coder-Pro V2 veröffentlicht am 27. März 2026

MiniMax Token Plan
Aktualisiert: 2026-05-13
LLM Modelle (4)
Features
- Speech 2.8
- Bildgenerierung Image-01
- Hailuo-2.3 Video
- Musikgenerierung Music-2.6
- Highspeed-Pläne (~100+ TPS)
Hinweise
- • Token-Plan – breiter als nur Coding
- • Highspeed-Pläne bieten ~100+ TPS-Inferenz
- • Jährliche Pläne sparen ~17%

Mistral Vibe
Aktualisiert: 2026-05-13
LLM Modelle (5)
Features
- Vibe CLI für Coding
- IDE-Extensions
- Le Chat Integration
- Extended Thinking
- Deep Research
- Code Interpreter
- Canvas Mode
- Web-Suche
- 40+ Enterprise Connectors
- MCP-Unterstützung
Hinweise
- • Pro-Plan enthält Mistral Vibe CLI für ganztägiges Coding
- • PAYG-Tarife gelten über dem enthaltenen Quota
- • Studentenrabatt: ~50% auf Pro-Plan
- • Codestral optimiert für Code-Vervollständigung
- • Devstral: spezialisiertes Coding-Modell
Moorethreads
Aktualisiert: 2026-05-13
LLM Modelle (1)
Features
- MTT S5000 GPU-Beschleunigung
- Hardware-Software-Co-Optimierung
- Hochgeschwindigkeits-Inferenz-Engine
- Multi-Ökosystem-Kompatibilität
- Quartalsabrechnung
Hinweise
- • Free Trial: 30 Tage, limitiert auf 100 gleichzeitige Entwickler pro Tag
- • Lite: 6$/Monat (~40¥/Monat), 3x Claude Pro Nutzung
- • Pro: 28$/Monat (~200¥/Monat), 5x Lite Nutzung
- • Max: 56$/Monat (~400¥/Monat), 4x Pro Nutzung, Priority-Support
- • Alle Pläne unterstützen GLM-4.7 Modell
- • Quartalsabrechnung in CNY verfügbar (¥120/¥600/¥1200 pro Quartal)
NVIDIA NIM
Aktualisiert: 2026-05-13
LLM Modelle (8)
Features
- 191+ Modelle via kostenlose API
- OpenAI-kompatibler Endpunkt
- Self-hosting via NIM Container
- GPU-Sandbox-Instanzen (B300/B200/H200)
- NemoClaw Agent-Sicherheit
- Blueprints für RAG/Agenten
Hinweise
- • Kostenlos für Entwicklung/Testing (kein Ablauf)
- • Production benötigt NVIDIA AI Enterprise Lizenz
- • Rate-Limit: 40 Anfragen pro Minute
- • Self-hosting: Docker Container für eigene GPUs
- • Modelle gehostet auf DGX Cloud (H200/B200/B300)

Ollama Cloud
Aktualisiert: 2026-05-13
LLM Modelle (14)
Coding Tools
Features
- GPU-Zeit-basierte Nutzung
- Keine Datenspeicherung
- Session-Limits 5h Reset
- Wochenlimits 7 Tage Reset
- 20+ Cloud-Modelle
- 40.000+ lokale Modelle
Hinweise
- • Nutzung = GPU-Zeit, nicht Tokens
- • Lokale Nutzung immer unbegrenzt
- • Native Gewichte, keine Quantisierung
- • Private Modell-Upload (Pro/Max)
- • Gehostet über NVIDIA Cloud Provider

OpenAI Codex
Aktualisiert: 2026-05-13
LLM Modelle (7)
Coding Tools
Features
- CLI, IDE, Web, iOS
- GitHub Code Review
- Slack-Integration
- Cloud-Tasks
- Local-Tasks
- Credits für zusätzliche Nutzung
Hinweise
- • Nutzungslimits geteilt zwischen lokal & cloud (5h Fenster)
- • Pro 10x: 200-1000 GPT-5.4 msgs/5h (Boost bis 31. Mai 2026)
- • Pro 20x: 400-2000 GPT-5.4 msgs/5h
- • GPT-5.4-mini: 3,3× höhere Limits als GPT-5.4
- • Credits verfügbar für erweiterte Nutzung
OpenCode Go
Aktualisiert: 2026-05-13
LLM Modelle (12)
Coding Tools
Features
- Offene Modelle
- Globale Edge-Bereitstellung (US/EU/SG)
- Geringe Latenz
- Pay-as-you-go Backup
Hinweise
- • Limits in Dollarwert: $12/5h, $30/Woche, $60/Monat
- • Modelle gehostet in US, EU und Singapur für stabilen globalen Zugang
- • Kuratierte Auswahl offener Modelle für OpenCode-Kompatibilität getestet
- • Nach Limits kann Zen-Guthaben genutzt werden (wenn aktiviert)
OpenRouter
Aktualisiert: 2026-05-13
LLM Modelle (25)
Features
- 29+ kostenlose Modelle
- OpenAI-kompatible API
- Multi-Provider Aggregation
- Einfacher Modellwechsel
- Kein Setup nötig
Hinweise
- • Kostenlose Version mit begrenzten Modellen verfügbar
- • Pay-as-you-go Preise für Premium-Modelle
- • Sammelt Modelle von mehreren Anbietern
StepFun
Aktualisiert: 2026-05-13
LLM Modelle (4)
Coding Tools
Features
- Mehrstufige Flash-Pläne
- Hohe Prompt-zu-Modellaufruf-Verhältnisse
- Wöchentliche Nutzungsgrenzen
- Aktionspreise (zeitlich begrenzt)
Hinweise
- • 1 Prompt ≈ 15 Modellaufrufe
- • Wöchentliche Grenzen ≈ 4x 5-Stunden-Grenzen
- • Aktionspreise angezeigt (zeitlich begrenztes Angebot)
- • Zahlung: WeChat Pay (China), Stripe (international)
Tencent Cloud LLM
Aktualisiert: 2026-05-13
LLM Modelle (10)
Coding Tools
Features
- Multi-Provider-Modellzugang
- Hunyuan-native Modelle
- Token-basierte Preise
- Hoher Durchsatz
Hinweise
- • Lite: 35M Tokens/Monat (~70 Fragerunden)
- • Standard: 100M Tokens/Monat (~200 Fragerunden)
- • Pro: 320M Tokens/Monat
- • Max: 650M Tokens/Monat
- • Alte CodingPlan-Aktion beendet, ersetzt durch Token Plan
UniAI
Aktualisiert: 2026-05-13
LLM Modelle (1)
Coding Tools
Features
- GLM-5 unbegrenzter Token-Zugang (30 Tage)
- 6x Claude Pro Nutzung
- Hunderte von Milliarden Tokens pro Monat
- 0,1x API-Preisäquivalent
Hinweise
- • 30-Tage unbegrenzter Token-Zugang nur für GLM-5 Modell
- • Ratenlimit: 3000 Modellaufrufe pro 5 Stunden
- • Service startet 5 Minuten nach Kauf
- • Gültig für 30 Tage ab Kaufdatum
- • Geteilt über alle Unterkonten des Hauptkontos
Venice AI
Aktualisiert: 2026-05-13
LLM Modelle (30)
Coding Tools
Features
- Private AI (keine Datenspeicherung)
- Unzensierte AI
- Vier Privatsphäre-Modi (Anonymous, Private, TEE, E2EE)
- Vision-Unterstützung
- Web-Suche mit Quellenangaben
- Dokument-Uploads
- Bildgenerierung
- Videogenerierung
- Musikgenerierung
- Text-to-Speech
- Charakter-Erstellung
- OpenAI-kompatible API
- Credits-System (100 Credits = $1)
- Krypto-Zahlungen unterstützt
Hinweise
- • Jährliche Abrechnung spart 16,7% (~10 Monate für 12 Monate)
- • Credits: 100 Credits = $1, monatliche Zuweisung je nach Plan
- • TEE und E2EE Privatsphäre benötigen Pro-Abo
- • Free-Tier: 10 Text-Prompts/Tag, 15 Bild-Prompts/Tag
- • Pro: 100 Credits/Monat, Plus: 7.500 Credits/Monat, Max: 22.500 Credits/Monat
- • Video: ~500 Credits pro Standard-Video
- • API: ab 10 Credits pro 1M Tokens
- • Über 1 Million Nutzer
Volcano Engine
Aktualisiert: 2026-05-13
LLM Modelle (4)
Features
- ByteDance-Infrastruktur
- Multi-Provider-Modelle
- ArkClaw-Multimodal-Agent
- Hohe Parallelität
Hinweise
- • Einführungspreise: Lite 9,9¥, Pro 49,9¥ erster Monat
- • Reguläre Preise: Lite ~14$/Monat, Pro ~50$/Monat (geschätzt)
- • Unterstützt ArkClaw Multimodal-Agent (Pro enthält ArkClaw)
- • Alle Tools teilen sich das gleiche Kontingent
- • 5-Stunden-, wöchentliche und monatliche Grenzen
Xiaomi MiMo
Aktualisiert: 2026-05-13
LLM Modelle (5)
Coding Tools
Features
- Token-basiertes Creditsystem
- Parallele Kontigentnutzung (1:2 Verhältnis)
- MiMo-V2-TTS kostenlos (zeitlich begrenzt)
- Kontextlängen-basierte Multiplikatoren
Hinweise
- • Credits werden basierend auf Token-Anzahl verbraucht
- • Pro- und Omni-Kontingente parallel im 1:2-Verhältnis verbraucht
- • MiMo-V2-TTS: kostenlos (zeitlich begrenzt, kein Credit-Verbrauch)
- • MiMo-V2-Omni < 256k Kontext: 1x
- • MiMo-V2-Pro < 256k: 2x, 256k-1M: 4x
Z.ai / GLM
Aktualisiert: 2026-05-13
LLM Modelle (5)
Coding Tools
Features
- Vision MCP
- Web-Suche MCP
- Web-Reader MCP
- Zread MCP
Hinweise
- • GLM-5.1/GLM-5 verbrauchen 3× Quota in Stoßzeiten (14:00-18:00 UTC+8), 2× außerhalb
- • GLM-5.1/GLM-5-Turbo: 1× Quota außerhalb der Stoßzeiten (zeitlich begrenzt bis Ende Juni)
- • Jeder Prompt ≈ 15-20 Modellaufrufe
- • Vierteljährliche Abrechnung: Lite $48.6, Pro $194.4, Max $432 (10% Rabatt)
- • Jährliche Abrechnung: Lite $172,8, Pro $691,2, Max $1.536 (20% Rabatt)
Modell-Kategorien erklärt
Verstehe die Fähigkeitsstufen der AI Modelle
Opus-Level
Hochleistungs-Modelle für komplexes Reasoning, mehrstufige Aufgaben und fortgeschrittene Code-Generierung. Für anspruchsvolle Probleme.
Sonnet-Level
Ausbalancierte Modelle mit großartiger Performance für tägliche Entwicklungsaufgaben. Ideal für die meisten Coding-Workflows.
Haiku-Level
Schnelle, effiziente Modelle für schnelle Aufgaben, Vervollständigungen und einfache Anfragen. Kosteneffektiv für hohe Nutzung.
LLM Coding Leistung
Ranking der LLMs nach Coding-Fähigkeiten – Daten von artificialanalysis.ai
Quelle: artificialanalysis.ai
Unterstützte Coding Tools
Diese AI Coding Assistenten funktionieren mit verschiedenen IDEs und Terminal-Tools