GitHub Copilot kann eine Vielzahl von KI-Modellen verwenden. In diesem Artikel wird erläutert, wie diese Modelle gehostet und bereitgestellt werden.
OpenAI-Modelle
Wird für Folgendes verwendet:
- GPT-4.1
- o3
- o4-mini
GPT-4.1 wird vom Azure-Mandanten von GitHub gehostet, wenn es in GitHub Copilot verwendet wird. o3- und o4-mini-Modelle werden vom Azure-Mandanten von OpenAI und GitHub gehostet. OpenAI hat folgende Datenverpflichtung: Wir [OpenAI] schulen unsere Modelle standardmäßig nicht mithilfe deiner Geschäftsdaten. GitHub unterhält eine „Zero Data Retention Agreement“ mit OpenAI, die eine Vorratsdatenspeicherung untersagt.
Wenn du die Modelle von OpenAI verwendest, laufen Eingabeanforderungen und Antworten weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.
Anthropische Modelle
Wird für Folgendes verwendet:
- Claude Opus 4
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Denken in Claude Sonnet 3.7
- Claude Sonnet 4
Claude Opus 4 und Claude Sonnet 4 werden von Anthropic PBC und Google Cloud Platform gehostet. Claude Sonnet 3.7 wird von Amazon Web Services, Anthropic PBC und Google Cloud Platform gehostet. Claude Sonnet 3.5 wird ausschließlich von Amazon Web Services gehostet. GitHub verfügt über Anbietervereinbarungen, um sicherzustellen, dass Daten nicht für Trainingszwecke genutzt werden. Weitere Details zu den einzelnen Anbietern findest du unten:
- Amazon Bedrock: Amazon enthält in den Datenschutzrichtlinien folgende Verpflichtungen: Amazon Bedrock speichert oder protokolliert deine Prompts und Vervollständigungen nicht. Amazon Bedrock verwendet deine Prompts und Vervollständigungen nicht für das Training von AWS-Modellen und gibt sie nicht an Dritte weiter.
- Anthropic PBC: GitHub unterhält eine „Zero Data Retention Agreement“ mit Anthropic, die eine Vorratsdatenspeicherung untersagt.
- Google Cloud: Google verpflichtet sich im Rahmen ihrer Servicebedingungen, keine GitHub-Daten für Trainingszwecke zu nutzen. GitHub unterliegt darüber hinaus nicht der Protokollierung von Prompts zur Missbrauchsüberwachung.
Um eine bessere Dienstqualität bereitzustellen und die Latenz zu reduzieren, verwendet GitHub Promptcaching. Weitere Informationen zum Promptcaching findest du auf Anthropic PBC, Amazon Bedrock und Google Cloud.
Wenn du Claude verwendest, laufen Eingabeprompts und Ausgabevervollständigungen weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.
Google-Modelle
Wird für Folgendes verwendet:
- Gemini 2.5 Pro
- Gemini 2.0 Flash
GitHub Copilot verwendet Gemini 2.0 Flash und Gemini 2.5 Pro, gehostet auf der Google Cloud Platform (GCP). Wenn du Gemini-Modelle verwendest, werden Prompts und Metadaten an GCP gesendet, wodurch die folgende Datenbindung erfolgt: Gemini verwendet deine Prompts oder Antworten nicht als Daten, um eigene Modelle zu trainieren.
Um eine bessere Dienstqualität bereitzustellen und die Latenz zu reduzieren, verwendet GitHub Promptcaching.
Wenn du Gemini verwendest, laufen Eingabeprompts und Ausgabevervollständigungen weiterhin durch die Inhaltsfilter von GitHub Copilot für den Abgleich mit öffentlichen Codes (wenn angewendet) und durch die Filter für schädliche oder anstößige Inhalte.