Hier ist die Übersetzung des Textes ins Deutsche:
Hallo zusammen, willkommen bei QuantaLogic – deinem kosmischen Toolkit für die Erstellung von KI-Agenten und Workflows, die glänzen! Egal, ob du wie verrückt programmierst, einen Geschäftsprozess automatisierst oder dir etwas Verrücktes ausdenkst, QuantaLogic ist hier, um es möglich zu machen. Wir sprechen von großen Sprachmodellen (LLMs), die mit einem herausragenden Toolset verschmolzen sind, mit zwei leistungsstarken Ansätzen: dem ReAct-Framework für dynamische Problemlösung und dem umwerfenden neuen Flow-Modul für strukturierte Brillanz.
Stell dir Folgendes vor: eine CLI, die kinderleicht ist, eine Python-API, die pure Magie ist, und ein Framework, das von schnellen Hacks bis hin zu galaktischen Unternehmen skaliert. Bereit für den Start? Lass uns durchstarten!
Vollständige Dokumentation | Anleitung
Chinesische Version Französische Version
Bei QuantaLogic haben wir ein Schwarzes Loch entdeckt: Erstaunliche KI-Modelle von OpenAI, Anthropic und DeepSeek brachten reale Aufgaben nicht vollständig zum Leuchten. Unsere Mission? Diesen Funken entzünden! Wir sind hier, um generative KI für Entwickler, Unternehmen und Träumer gleichermaßen zum Kinderspiel zu machen – Ideen in Aktionen zu verwandeln, eine brillante Lösung nach der anderen.
"KI sollte dein Co-Pilot sein, nicht ein Rätsel. QuantaLogic macht es möglich – schnell, unterhaltsam und furchtlos!"
- ReAct-Framework: Denken + Handeln = unaufhaltsame Agenten!
- Flow-Modul: Strukturierte Workflows, die wie ein Fluss fließen.
- LLM-Galaxie: Nutze OpenAI, DeepSeek und mehr über LiteLLM.
- Sichere Tools: Docker-basierte Sicherheit für Code und Dateien.
- Live-Überwachung: Beobachte, wie es sich entfaltet, mit einer Weboberfläche und SSE.
- Speichermagie: Intelligenter Kontext hält die Dinge auf Trab.
- Unternehmenstauglich: Protokolle, Fehlerbehandlung und Validierung – grundsolide.
- Warum QuantaLogic?
- Hauptmerkmale
- Installation
- Schnellstart
- ReAct-Framework: Dynamische Agenten
- Flow-Modul: Strukturierte Workflows
- 📘 Workflow YAML DSL Spezifikation: Umfassender Leitfaden zur Definition leistungsstarker, strukturierter Workflows mit unserer Domain-Specific Language
- 📚 Flow YAML Dokumentation: Tauche ein in die offizielle Dokumentation für ein tieferes Verständnis von Flow YAML und seinen Anwendungen
- ReAct vs. Flow: Wähle deine Stärke
- Verwendung der CLI
- Beispiele, die Freude bereiten
- Kernkomponenten
- Entwicklung mit QuantaLogic
- Mitwirken
- Lizenz
- Projektwachstum
- API-Schlüssel und Umgebungskonfiguration
Lass uns QuantaLogic in dein System einschießen – es ist so einfach wie 1-2-3!
- Python 3.12+: Der Treibstoff für unsere Rakete.
- Docker (optional): Sperrt die Codeausführung in einem sicheren Pod.
pip install quantalogic
pipx install quantalogic
git clone https://github.com/quantalogic/quantalogic.git
cd quantalogic
python -m venv .venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
poetry install
Tipp: Kein Poetry? Hol es dir mit
pip install poetry
und schließe dich der Crew an!
Bereit, die Magie zu sehen? Hier ist deine Startrampe:
quantalogic task "Schreibe eine Python-Funktion für Fibonacci-Zahlen"
Bumm! ReAct zaubert in Sekundenschnelle eine Lösung herbei.
from quantalogic import Agent
agent = Agent(model_name="deepseek/deepseek-chat")
result = agent.solve_task("Code a Fibonacci function")
print(result)
# Output: "def fib(n): return [0, 1] if n <= 2 else fib(n-1) + [fib(n-1)[-1] + fib(n-1)[-2]]"
from quantalogic import Agent
# Erstelle einen synchronen Agenten
agent = Agent(model_name="gpt-4o")
# Löse eine Aufgabe synchron
result = agent.solve_task(
task="Schreibe eine Python-Funktion zur Berechnung von Fibonacci-Zahlen",
max_iterations=10 # Optional: Iterationsbegrenzung
)
print(result)
import asyncio
from quantalogic import Agent
async def main():
# Erstelle einen asynchronen Agenten
agent = Agent(model_name="gpt-4o")
# Löse eine Aufgabe asynchron mit Streaming
result = await agent.async_solve_task(
task="Schreibe ein Python-Skript, um die Top-GitHub-Repositories zu scrapen",
max_iterations=15, # Optional: Iterationsbegrenzung
streaming=True # Optional: Streame die Antwort
)
print(result)
# Führe die asynchrone Funktion aus
asyncio.run(main())
from quantalogic import Agent
from quantalogic.console_print_events import console_print_events
from quantalogic.console_print_token import console_print_token
from quantalogic.tools import (
DuckDuckGoSearchTool,
TechnicalAnalysisTool,
YFinanceTool
)
# Erstelle einen Agenten mit Finanztools
agent = Agent(
model_name="gpt-4o",
tools=[
DuckDuckGoSearchTool(), # Web-Suchtool
TechnicalAnalysisTool(), # Technische Aktienanalyse
YFinanceTool() # Abrufen von Aktiendaten
]
)
# Richte umfassende Ereignis-Listener ein
agent.event_emitter.on(
event=[
"task_complete",
"task_think_start",
"task_think_end",
"tool_execution_start",
"tool_execution_end",
"error_max_iterations_reached",
"memory_full",
"memory_compacted"
],
listener=console_print_events
)
# Optional: Überwache Streaming-Token
agent.event_emitter.on(
event=["stream_chunk"],
listener=console_print_token
)
# Führe eine mehrstufige Finanzanalyseaufgabe aus
result = agent.solve_task(
"1. Finde die Top 3 Tech-Aktien für Q3 2024 "
"2. Rufe historische Aktiendaten für jede ab "
"3. Berechne 50-Tage- und 200-Tage-Durchschnittswerte "
"4. Gib eine kurze Anlageempfehlung",
streaming=True # Aktiviere Streaming für detaillierte Ausgabe
)
print(result)
import asyncio
from quantalogic import Agent
from quantalogic.console_print_events import console_print_events
from quantalogic.console_print_token import console_print_token
from quantalogic.tools import (
DuckDuckGoSearchTool,
TechnicalAnalysisTool,
YFinanceTool
)
async def main():
# Erstelle einen asynchronen Agenten mit Finanztools
agent = Agent(
model_name="gpt-4o",
tools=[
DuckDuckGoSearchTool(), # Web-Suchtool
TechnicalAnalysisTool(), # Technische Aktienanalyse
YFinanceTool() # Abrufen von Aktiendaten
]
)
# Richte umfassende Ereignis-Listener ein
agent.event_emitter.on(
event=[
"task_complete",
"task_think_start",
"task_think_end",
"tool_execution_start",
"tool_execution_end",
"error_max_iterations_reached",
"memory_full",
"memory_compacted"
],
listener=console_print_events
)
# Optional: Überwache Streaming-Token
agent.event_emitter.on(
event=["stream_chunk"],
listener=console_print_token
)
# Führe eine mehrstufige Finanzanalyseaufgabe asynchron aus
result = await agent.async_solve_task(
"1. Finde aufstrebende KI-Technologie-Startups "
"2. Analysiere ihre letzten Finanzierungsrunden "
"3. Vergleiche Marktpotenzial und Wachstumsindikatoren "
"4. Gib einen Bericht über Anlagetrends",
streaming=True # Aktiviere Streaming für detaillierte Ausgabe
)
print(result)
# Führe die asynchrone Funktion aus
asyncio.run(main())
from quantalogic.flow import Workflow, Nodes
@Nodes.define(output="greeting")
def greet(name: str) -> str:
return f"Hallo, {name}!"
workflow = Workflow("greet").build()
result = await workflow.run({"name": "Luna"})
print(result["greeting"]) # "Hallo, Luna!"
Das ReAct-Framework ist dein KI-Sidekick – denk schnell, handle klug. Es kombiniert LLM-Denken mit toolgestütztem Handeln, perfekt für Aufgaben, die ein wenig Improvisation erfordern.
- Du sagst: "Schreibe mir ein Skript."
- Es denkt: LLM plant den Kurs.
- Es handelt: Tools wie
PythonTool
legen los. - Es schleift: Geht so lange weiter, bis es fertig ist.
Schau dir das an:
graph TD
A[Du: 'Schreibe ein Skript'] --> B[ReAct-Agent]
B --> C{Denke mit LLM}
C --> D[Rufe Tools auf]
D --> E[Erhalte Ergebnisse]
E --> F{Aufgabe erledigt?}
F -->|Nein| C
F -->|Ja| G[Liefere Antwort]
G --> H[Du: Glücklich!]
style A fill:#f9f,stroke:#333
style H fill:#bbf,stroke:#333
quantalogic task "Erstelle ein Python-Skript zum Sortieren einer Liste"
ReAct findet es heraus, schreibt den Code und übergibt ihn – reibungslos wie Seide!
Perfekt zum Programmieren, Debuggen oder Beantworten verrückter Fragen im Handumdrehen.
Das Flow-Modul ist dein Architekt – es baut Workflows, die mit Präzision summen. Es dreht sich alles um Knoten, Übergänge und einen stetigen Rhythmus, ideal für wiederholbare Missionen.
🔍 Möchtest du tiefer eintauchen? Sieh dir unsere umfassende Workflow YAML DSL Spezifikation an, einen detaillierten Leitfaden, der dich durch die Definition leistungsstarker, strukturierter Workflows führt. Von grundlegenden Knotenkonfigurationen bis hin zu komplexen Übergangslogiken ist diese Dokumentation deine Roadmap zur Beherrschung des Workflow-Designs mit QuantaLogic.
📚 Für ein tieferes Verständnis von Flow YAML und seinen Anwendungen lies bitte die offizielle Flow YAML Dokumentation.
Die Flow YAML Dokumentation bietet einen umfassenden Überblick über die Flow YAML Sprache, einschließlich ihrer Syntax, Funktionen und Best Practices. Sie ist eine wertvolle Ressource für alle, die komplexe Workflows mit QuantaLogic erstellen möchten.
Darüber hinaus enthält die Flow YAML Dokumentation eine Reihe von Beispielen und Tutorials, die dir den Einstieg in die Erstellung eigener Workflows erleichtern. Diese Beispiele decken eine Reihe von Themen ab, von einfachen Workflows bis hin zu komplexeren Szenarien, und sollen dir helfen, zu verstehen, wie du Flow YAML verwenden kannst, um leistungsstarke und flexible Workflows zu erstellen.
- Knoten: Aufgaben wie Funktionen oder LLM-Aufrufe.
- Übergänge: Pfade mit optionalen Bedingungen.
- Engine: Führt die Show mit Flair aus.
- Beobachter: Wirf einen Blick auf den Fortschritt mit Ereignissen.
from quantalogic.flow import Workflow, Nodes
@Nodes.llm_node(model="openai/gpt-4o-mini", output="chapter")
async def write_chapter(ctx: dict) -> str:
return f"Kapitel 1: {ctx['theme']}"
workflow = (
Workflow("write_chapter")
.then("end", condition="lambda ctx: True")
.add_observer(lambda e: print(f" {e.event_type}"))
)
engine = workflow.build()
result = await engine.run({"theme": "Cosmic Quest"})
print(result["chapter"])
Hier ist ein komplexeres Beispiel, das einen vollständigen Workflow zur Erstellung von Geschichten mit dem Flow-Modul zeigt:
from typing import List
import anyio
from loguru import logger
from quantalogic.flow import Nodes, Workflow
# Definiere Knotenfunktionen mit Dekoratoren
@Nodes.validate_node(output="validation_result")
async def validate_input(genre: str, num_chapters: int) -> str:
"""Validiere Eingabeparameter."""
if not (1 <= num_chapters <= 20 and genre.lower() in ["science fiction", "fantasy", "mystery", "romance"]):
raise ValueError("Ungültige Eingabe: Genre muss Science Fiction, Fantasy, Mystery oder Romance sein")
return "Eingabe validiert"
@Nodes.llm_node(
model="gemini/gemini-2.0-flash",
system_prompt="Du bist ein kreativer Autor, der sich auf Geschichtentitel spezialisiert hat.",
prompt_template="Generiere einen kreativen Titel für eine {{ genre }} Geschichte. Gib nur den Titel aus.",
output="title",
)
async def generate_title(genre: str) -> str:
"""Generiere einen Titel basierend auf dem Genre (wird von llm_node behandelt)."""
pass # Logik wird vom llm_node-Dekorator behandelt
@Nodes.define(output="manuscript")
async def compile_book(title: str, outline: str, chapters: List[str]) -> str:
"""Stelle das vollständige Manuskript aus Titel, Gliederung und Kapiteln zusammen."""
return f"Titel: {title}\n\nGliederung:\n{outline}\n\n" + "\n\n".join(
f"Kapitel {i}:\n{chap}" for i, chap in enumerate(chapters, 1)
)
# Definiere den Workflow mit bedingter Verzweigung
workflow = (
Workflow("validate_input")
.then("generate_title")
.then("generate_outline")
.then("generate_chapter")
.then("update_chapter_progress")
.then("generate_chapter", condition=lambda ctx: ctx["completed_chapters"] < ctx["num_chapters"])
.then("compile_book", condition=lambda ctx: ctx["completed_chapters"] >= ctx["num_chapters"])
.then("quality_check")
.then("end")
)
# Führe den Workflow aus
async def main():
initial_context = {
"genre": "science fiction",
"num_chapters": 3,
"chapters": [],
"completed_chapters": 0,
}
engine = workflow.build()
result = await engine.run(initial_context)
Dieses Beispiel demonstriert:
- Eingabevalidierung mit
@Nodes.validate_node
- LLM-Integration mit
@Nodes.llm_node
- Benutzerdefinierte Verarbeitung mit
@Nodes.define
- Bedingte Verzweigung für iterative Kapitelgenerierung
- Kontextverwaltung zur Fortschrittsverfolgung
Das vollständige Beispiel ist unter examples/flow/story_generator/story_generator_agent.py verfügbar.
graph LR
A[Start] --> B[WriteChapter]
B -->|Bedingung: True| C[Ende]
subgraph WriteChapter
D[Rufe LLM auf] --> E[Speichere Kapitel]
end
A -->|Beobachter| F[Protokoll: NODE_STARTED]
B -->|Beobachter| G[Protokoll: NODE_COMPLETED]
style A fill:#dfd,stroke:#333
style C fill:#dfd,stroke:#333
style B fill:#ffb,stroke:#333
@Nodes.define(output="processed")
def clean_data( str) -> str:
return data.strip().upper()
workflow = Workflow("clean_data").build()
result = await workflow.run({"data": " hello "})
print(result["processed"]) # "HELLO"
Denke an Content-Pipelines, Automatisierungsabläufe oder jede mehrstufige Aufgabe, die Ordnung benötigt.
Beide sind herausragend, aber hier ist der Clou:
Merkmal | ReAct-Framework | Flow-Modul |
---|---|---|
Stimmung | Freigeistig, anpassungsfähig | Organisiert, vorhersehbar |
Fluss | Schleift, bis es gelöst ist | Folgt einer Roadmap |
Sweet Spot | Kreatives Chaos (Codierung, F&A) | Stetige Workflows (Pipelines) |
Zustand | Speicher hält es locker | Knoten sperren es ein |
Tools | Werden nach Bedarf geholt | In Knoten eingebaut |
Beobachtung | Ereignisse wie task_complete |
Beobachter wie NODE_STARTED |
- ReAct: Code im Handumdrehen, erkunde Antworten, debugge wie ein Profi.
- Flow: Baue eine Pipeline, automatisiere einen Prozess, halte ihn straff.
Die CLI ist deine Kommandozentrale – schnell, flexibel und unterhaltsam!
quantalogic [OPTIONEN] BEFEHL [ARGUMENTE]...
QuantaLogic KI-Assistent – Ein leistungsstarkes KI-Tool für verschiedene Aufgaben.
- OpenAI: Setze
OPENAI_API_KEY
auf deinen OpenAI API-Schlüssel - Anthropic: Setze
ANTHROPIC_API_KEY
auf deinen Anthropic API-Schlüssel - DeepSeek: Setze
DEEPSEEK_API_KEY
auf deinen DeepSeek API-Schlüssel
Verwende eine .env
-Datei oder exportiere diese Variablen in deiner Shell für eine nahtlose Integration.
task
: Starte eine Mission.quantalogic task "Fasse diese Datei zusammen" --file notes.txt
list-models
: Liste unterstützte LiteLLM-Modelle mit optionaler Fuzzy-Suche.quantalogic list-models --search "gpt"
--model-name TEXT
: Gib das zu verwendende Modell an (litellm-Format). Beispiele:openai/gpt-4o-mini
openai/gpt-4o
anthropic/claude-3.5-sonnet
deepseek/deepseek-chat
deepseek/deepseek-reasoner
openrouter/deepseek/deepseek-r1
openrouter/openai/gpt-4o
--mode [code|basic|interpreter|full|code-basic|search|search-full]
: Agentenmodus--vision-model-name TEXT
: Gib das zu verwendende Vision-Modell an (litellm-Format)--log [info|debug|warning]
: Setze die Protokollierungsstufe--verbose
: Aktiviere die ausführliche Ausgabe--max-iterations INTEGER
: Maximale Anzahl von Iterationen (Standard: 30)--max-tokens-working-memory INTEGER
: Setze die maximal zulässige Anzahl von Token im Arbeitsspeicher--compact-every-n-iteration INTEGER
: Setze die Häufigkeit der Speicherkomprimierung--thinking-model TEXT
: Das zu verwendende Denkmodell--version
: Zeige Versionsinformationen an
Tipp: Führe
quantalogic --help
für die vollständige Befehlsreferenz aus!
Lass uns deine Fantasie mit diesen Juwelen beflügeln:
Name | Was macht es? | Datei |
---|---|---|
Einfacher Agent | Grundlegende ReAct-Agenten-Demo | 01-simple-agent.py |
Ereignisüberwachung | Agent mit Ereignisverfolgung | 02-agent-with-event-monitoring.py |
Interpreter-Modus | Agent mit Interpreter | 03-agent-with-interpreter.py |
Agentenzusammenfassung | Aufgabenzusammenfassung generieren | 04-agent-summary-task.py |
Codegenerierung | Grundlegende Codegenerierung | 05-code.py |
Code-Screen | Erweiterte Codegenerierung | 06-code-screen.py |
Tutorial-Autor | Technische Tutorials schreiben | 07-write-tutorial.py |
PRD-Autor | Produktspezifikationsdokument | 08-prd-writer.py |
Story Generator | Flow-basierte Geschichtenerstellung | story_generator_agent.py |
SQL-Abfrage | Datenbankabfrage generieren | 09-sql-query.py |
Finanzagent | Finanzanalyse und Aufgaben | 10-finance-agent.py |
Textuelle Oberfläche | Agent mit textueller UI | 11-textual-agent-interface.py |
Composio-Test | Composio-Integrationsdemo | 12-composio-test.py |
Synchroner Agent | Synchrone Agenten-Demo | 13-synchronous-agent.py |
Asynchroner Agent | Asynchrone Agenten-Demo | 14-async-agent.py |
quantalogic task "Löse 2x + 5 = 15"
Ausgabe: "Lass es uns lösen! 2x + 5 = 15 → 2x = 10 → x = 5. Fertig!"
- Gehirn: LLMs befeuern das Denken.
- Hände: Tools wie
PythonTool
erledigen die Arbeit. - Speicher: Hält alles zusammen.
- Knoten: Deine Aufgabenblöcke.
- Engine: Der Maestro der Ausführung.
- Code:
PythonTool
,NodeJsTool
. - Dateien:
ReadFileTool
,WriteFileTool
. - Mehr in REFERENCE_TOOLS.md.
git clone https://github.com/quantalogic/quantalogic.git
cd quantalogic
python -m venv venv
source venv/bin/activate
poetry install
pytest --cov=quantalogic
ruff format # Bringe den Code zum Glänzen
mypy quantalogic # Überprüfe Typen
ruff check quantalogic # Lintel es
Die Funktion create_tool()
wandelt jede Python-Funktion in ein wiederverwendbares Tool um:
from quantalogic.tools import create_tool
def weather_lookup(city: str, country: str = "US") -> dict:
"""Rufe das aktuelle Wetter für einen bestimmten Ort ab.
Args:
city: Name der Stadt, die nachgeschlagen werden soll
country: Zwei-Buchstaben-Ländercode (Standard: US)
Returns:
Dictionary mit Wetterinformationen
"""
# Implementiere hier die Wetter-Lookup-Logik
return {"temperature": 22, "condition": "Sunny"}
# Konvertiere die Funktion in ein Tool
weather_tool = create_tool(weather_lookup)
# Jetzt kannst du es als Tool verwenden
print(weather_tool.to_markdown()) # Generiere Tool-Dokumentation
result = weather_tool.execute(city="New York") # Führe es als Tool aus
So integrierst du benutzerdefinierte Tools in einen ReAct-Agenten:
from quantalogic import Agent
from quantalogic.tools import create_tool, PythonTool
# Erstelle ein benutzerdefiniertes Tool zum Nachschlagen von Aktienkursen
def get_stock_price(symbol: str) -> str:
"""Rufe den aktuellen Kurs einer Aktie anhand ihres Tickersymbols ab.
Args:
symbol: Aktien-Ticker-Symbol (z. B. AAPL, MSFT)
Returns:
Aktuelle Aktienkursinformationen
"""
# In einer realen Implementierung würdest du von einer API abrufen
prices = {"AAPL": 185.92, "MSFT": 425.27, "GOOGL": 175.43}
if symbol in prices:
return f"{symbol} wird derzeit bei ${prices[symbol]} gehandelt"
return f"Konnte keinen Preis für {symbol} finden"
# Erstelle einen Agenten mit Standard- und benutzerdefinierten Tools
agent = Agent(
model_name="gpt-4o",
tools=[
PythonTool(), # Standard-Tool zur Python-Ausführung
create_tool(get_stock_price) # Benutzerdefiniertes Tool zum Abrufen von Aktienkursen
]
)
# Der Agent kann jetzt beide Tools verwenden, um Aufgaben zu lösen
result = agent.solve_task(
"Schreibe eine Python-Funktion zur Berechnung des Anlagezuwachses, "
"und analysiere dann den aktuellen Kurs der Apple-Aktie"
)
print(result)
In diesem Beispiel kann der Agent nahtlos sowohl das Standard-PythonTool
als auch dein benutzerdefiniertes Tool zum Nachschlagen von Aktienkursen verwenden, um die Aufgabe zu erledigen.
Hauptmerkmale von create_tool()
:
- 🔧 Konvertiert Funktionen automatisch in Tools
- 📝 Extrahiert Metadaten aus Funktionssignatur und Docstring
- 🔍 Unterstützt sowohl synchrone als auch asynchrone Funktionen
- 🛠️ Generiert Tool-Dokumentation und Validierung
Schließe dich der QuantaLogic-Galaxie an!
- Forke es.
- Branch:
git checkout -b feature/epic-thing
. - Code + Test.
- PR es!
Siehe CONTRIBUTING.md für die vollständige Geschichte.
2024 QuantaLogic-Mitwirkende. Apache 2.0 – frei und offen. Siehe LICENSE.
Ausgedacht von Raphaël MANSUY, Gründer von QuantaLogic.
QuantaLogic verbindet sich über API-Schlüssel mit LLMs – hier ist dein Leitfaden zum Freischalten des Universums!
Speichere Schlüssel in einer .env
-Datei oder exportiere sie:
echo "OPENAI_API_KEY=sk-your-openai-key" > .env
echo "DEEPSEEK_API_KEY=ds-your-deepseek-key" >> .env
source .env
Modellname | Schlüsselvariable | Wofür ist es gut? |
---|---|---|
openai/gpt-4o-mini |
OPENAI_API_KEY |
Schnelle, budgetfreundliche Aufgaben |
openai/gpt-4o |
OPENAI_API_KEY |
Hochleistungsfähiges Denken |
anthropic/claude-3.5-sonnet |
ANTHROPIC_API_KEY |
Ausgewogene Brillanz |
deepseek/deepseek-chat |
DEEPSEEK_API_KEY |
Gesprächig und vielseitig |
deepseek/deepseek-reasoner |
DEEPSEEK_API_KEY |
Tiefgreifende Problemlösung |
openrouter/deepseek/deepseek-r1 |
OPENROUTER_API_KEY |
Forschungsgüte über OpenRouter |
mistral/mistral-large-2407 |
MISTRAL_API_KEY |
Mehrsprachige Meisterschaft |
dashscope/qwen-max |
DASHSCOPE_API_KEY |
Alibabas Power-Player |
lm_studio/mistral-small-24b-instruct-2501 |
LM_STUDIO_API_KEY |
Lokale LLM-Aktion |