Amazon Bedrock – Häufig gestellte Fragen

Allgemeines

Amazon Bedrock ist ein vollständig verwalteter Service, der eine Auswahl an branchenführenden Basismodellen (FMs) zusammen mit einer breiten Palette an Funktionen anbietet. Diese werden für die Entwicklung von generativen KI-Anwendungen benötigt und vereinfachen die Entwicklung mit Sicherheit, Datenschutz und verantwortungsvoller KI. Mit den umfassenden Funktionen von Amazon Bedrock können Sie mit einer Vielzahl von Top-FMs experimentieren, sie mit Techniken wie Fine-Tuning und Retrieval Augmented Generation (RAG) privat an Ihre Daten anpassen und verwaltete Agenten erstellen, die komplexe Geschäftsaufgaben ausführen – von der Buchung von Reisen und der Bearbeitung von Versicherungsansprüchen bis hin zur Erstellung von Werbekampagnen und der Verwaltung von Beständen – und das alles, ohne selbst Code schreiben zu müssen. Da Amazon Bedrock Serverless ist, müssen Sie keine Infrastruktur verwalten. Sie können generative KI-Funktionen sicher in Ihre Anwendungen integrieren und bereitstellen, indem Sie die AWS-Services nutzen, mit denen Sie bereits vertraut sind.

Es gibt fünf Gründe, Amazon Bedrock für die Entwicklung generativer KI-Anwendungen zu verwenden.

  • Auswahl führender FMs: Amazon Bedrock bietet ein benutzerfreundliches Entwicklererlebnis für die Arbeit mit einer breiten Palette leistungsstarker FMs von Amazon und führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Sie können schnell mit einer Vielzahl von FMs im Playground experimentieren und unabhängig von den von Ihnen gewählten Modellen eine einzige API für die Inferenz verwenden. So haben Sie die Flexibilität, FMs von verschiedenen Anbietern zu verwenden und mit den neuesten Modellversionen mit minimalen Codeänderungen auf dem Laufenden zu bleiben.
  • Einfache Modellanpassung mit Ihren Daten: Passen Sie FMs über eine visuelle Oberfläche privat mit Ihren eigenen Daten an, ohne Code schreiben zu müssen. Wählen Sie einfach die in Amazon Simple Storage Service (Amazon S3) gespeicherten Trainings- und Validierungsdatensätze aus und passen Sie bei Bedarf die Hyperparameter an, um die bestmögliche Modellleistung zu erzielen.
  • Vollständig verwaltete Kundendienstmitarbeiter, die APIs dynamisch aufrufen können, um Aufgaben auszuführen: Erstellen Sie Agenten, die komplexe Geschäftsaufgaben ausführen – von der Buchung von Reisen und der Bearbeitung von Versicherungsansprüchen bis hin zur Erstellung von Werbekampagnen, der Vorbereitung von Steuererklärungen und der Verwaltung Ihres Inventars – indem Sie Ihre Unternehmenssysteme und APIs dynamisch aufrufen. Vollständig verwaltete Agenten für Amazon Bedrock erweitern die Argumentationsfähigkeiten von FMs, um Aufgaben aufzuschlüsseln, einen Orchestrierungsplan zu erstellen und diesen auszuführen.
  • Native Unterstützung für RAG zur Erweiterung der Leistungsfähigkeit von FMs mit proprietären Daten: Mit Amazon Bedrock Knowledge Bases können Sie FMs sicher mit Ihren Datenquellen verbinden, um den Abruf zu erweitern – und zwar direkt aus dem verwalteten Service heraus. Damit erweitern Sie die bereits leistungsstarken Funktionen des FMs und machen es noch kompetenter in Bezug auf Ihre spezifische Domain und Ihr Unternehmen.
  • Zertifizierungen für Datensicherheit und Compliance: Amazon Bedrock bietet mehrere Funktionen zur Unterstützung von Sicherheits- und Datenschutzanforderungen. Amazon Bedrock erfüllt gängige Compliance-Standards wie Service and Organization Control (SOC), International Organization for Standardization (ISO), Health Insurance Portability and Accountability Act (HIPAA) und Kunden können Amazon Bedrock in Übereinstimmung mit der General Data Protection Regulation (GDPR) nutzen. Amazon Bedrock ist nach CSA Security Trust Assurance and Risk (STAR) Level 2 zertifiziert, was die Verwendung von bewährten Verfahren und den Sicherheitsstatus der AWS-Cloud-Angebote bestätigt. Bei Amazon Bedrock werden Ihre Inhalte nicht zur Verbesserung der Basismodelle verwendet und nicht an Drittanbieter von Modellen weitergegeben. Ihre Daten in Amazon Bedrock werden während der Übertragung und im Ruhezustand immer verschlüsselt. Optional können Sie die Daten mit Ihren eigenen Schlüsseln verschlüsseln. Sie können AWS PrivateLink mit Amazon Bedrock verwenden, um eine private Verbindung zwischen Ihren FMs und Ihrer Amazon Virtual Private Cloud (Amazon VPC) herzustellen, ohne Ihren Datenverkehr dem Internet auszusetzen.

Mit der Serverless-Erfahrung von Amazon Bedrock können Sie schnell loslegen. Navigieren Sie in der AWS-Managementkonsole zu Amazon Bedrock und probieren Sie die FMs auf dem Playground aus. Sie können auch einen Kundendienstmitarbeiter erstellen und ihn in der Konsole testen. Sobald Sie Ihren Anwendungsfall identifiziert haben, können Sie die FMs mithilfe von AWS-Tools problemlos in Ihre Anwendungen integrieren, ohne eine Infrastruktur verwalten zu müssen.
Link zum Einführungskurs von Amazon Bedrock
Link zum Benutzerhandbuch von Amazon Bedrock

Amazon Bedrock nutzt AWS Lambda zum Aufrufen von Aktionen, Amazon S3 für Trainings- und Validierungsdaten und Amazon CloudWatch zum Nachverfolgen von Metriken.

Sie können schnell mit Anwendungsfällen beginnen:

  • Erstellen Sie neue Originalinhalte wie Kurzgeschichten, Essays, Social-Media-Beiträge und Webseitentexte.
  • Suchen, finden und synthetisieren Sie Informationen, um Fragen aus einem großen Datenbestand zu beantworten.
  • Erstellen Sie anhand von Sprachanweisungen realistische und künstlerische Images von verschiedenen Motiven, Umgebungen und Szenen.
  • Helfen Sie Ihren Kunden, das zu finden, wonach sie suchen – mit relevanteren und kontextbezogenen Produktempfehlungen mit mehr als Wortübereinstimmungen.
  • Erhalten Sie eine Zusammenfassung von Textinhalten wie Artikeln, Blogbeiträgen, Büchern und Dokumenten, um das Wesentliche zu verstehen, ohne den gesamten Inhalt lesen zu müssen.
  • Produkte vorschlagen, die den Präferenzen der Käufer und früheren Einkäufen entsprechen

Weitere Anwendungsfälle für generative KI erkunden.

Amazon Bedrock bietet einen Playground, auf dem Sie mithilfe einer Chat-Oberfläche mit verschiedenen FMs experimentieren können. Sie können eine Eingabeaufforderung angeben und eine Weboberfläche in der Konsole verwenden, um eine Aufforderung bereitzustellen und die vortrainierten Modelle zum Generieren von Text oder Bildern verwenden oder alternativ ein fein abgestimmtes Modell verwenden, das an Ihren Anwendungsfall angepasst wurde.

Eine Liste der AWS-Regionen, in denen Amazon Bedrock verfügbar ist, finden Sie unter Amazon-Bedrock-Endpunkte und Kontingente im Referenzleitfaden von Amazon Bedrock.

Sie können FMs in Amazon Bedrock ganz einfach feinabstimmen, indem Sie markierte Daten verwenden oder indem Sie die Funktion zum Vortraining verwenden, um das Modell mithilfe von nicht markierten Daten anzupassen. Stellen Sie zunächst den Trainings- und Validierungsdatensatz bereit, konfigurieren Sie Hyperparameter (Epochen, Batchgröße, Lernrate, Aufwärmschritte) und senden Sie den Auftrag ab. Innerhalb weniger Stunden kann mit derselben API (InvokeModel) auf Ihr fein abgestimmtes Modell zugegriffen werden.

Ja, Sie können öffentlich verfügbare Modelle auswählen und sie mithilfe der Funktion für benutzerdefinierten Modellimport in Amazon Bedrock importieren. Derzeit unterstützt diese Funktion nur die Architekturen Llama 2/3, Mistral und Flan. Weitere Informationen finden Sie in der Dokumentation.

Die latenzoptimierte Inferenz in Amazon Bedrock ist als öffentliche Vorschau verfügbar und bietet eine geringere Latenz ohne Abstriche bei der Genauigkeit. Wie von Anthropic bestätigt, läuft Claude 3.5 Haiku mit latenzoptimierter Inferenz auf Amazon Bedrock schneller auf AWS als irgendwo anders. Darüber hinaus läuft Llama 3.1 70B und 405B mit latenzoptimierter Inferenz in Bedrock schneller auf AWS als bei jedem anderen großen Cloud-Anbieter. Durch die Verwendung speziell entwickelter KI-Chips wie AWS Trainium2 und fortschrittlicher Softwareoptimierungen in Amazon Bedrock können Kunden auf mehr Optionen zugreifen, um ihre Inferenz für einen bestimmten Anwendungsfall zu optimieren.

Wichtigste Funktionen:

  • Verkürzt die Reaktionszeiten für Interaktionen mit dem Fundamentmodell
  • Behält die Genauigkeit bei und verbessert gleichzeitig die Geschwindigkeit
  • Erfordert keine zusätzliche Einrichtung oder Optimierung des Modells

Unterstützte Modelle: Anthropic's Claude 3.5 Haiku und Meta's Llama 3.1 Modelle 405B und 70B

 

Verfügbarkeit: Die Region USA Ost (Ohio) über regionenübergreifende Inferenz

 

Besuchen Sie zunächst die Amazon Bedrock-Konsole. Weitere Informationen finden Sie in der Amazon Bedrock-Dokumentation.

Um auf die latenzoptimierte Inferenz in Amazon Bedrock zuzugreifen, ist keine zusätzliche Einrichtung oder Optimierung des Modells erforderlich, sodass vorhandene Anwendungen mit generativer KI sofort mit schnelleren Reaktionszeiten verbessert werden können. Sie können den Parameter „Latenzoptimiert“ aktivieren, während Sie die Bedrock-Inferenz-API aufrufen.

 

Um zu beginnen, besuchen Sie die Amazon Bedrock-Konsole. Weitere Informationen finden Sie in der Amazon Bedrock-Dokumentation.

Agents

Amazon-Bedrock-Agenten sind vollständig verwaltete Funktionen, die es Entwicklern erleichtern, generative KI-basierte Anwendungen zu erstellen, die komplexe Aufgaben für eine Vielzahl von Anwendungsfällen erledigen und aktuelle Antworten auf der Grundlage proprietärer Wissensquellen liefern können. In nur wenigen Schritten unterteilen Amazon-Bedrock-Agenten Aufgaben automatisch und erstellen einen Orchestrierungsplan – ganz ohne manuelle Codierung. Der Kundendienstmitarbeiter stellt über eine API eine sichere Verbindung zu Unternehmensdaten her, konvertiert Daten automatisch in ein maschinenlesbares Format und ergänzt die Anfrage mit relevanten Informationen, um die genaueste Antwort zu erhalten. Kundendienstmitarbeiter können dann automatisch APIs aufrufen, um die Anfrage eines Benutzers zu erfüllen. Beispielsweise möchte ein Fertigungsunternehmen möglicherweise eine generative KI-Anwendung entwickeln, die die Nachverfolgung von Lagerbeständen, Verkaufsdaten und Lieferketteninformationen automatisiert und optimale Nachbestellstellen und Mengen empfehlen kann, um die Effizienz zu maximieren. Als vollständig verwaltete Funktionen nehmen Amazon-Bedrock-Agenten den undifferenzierten Aufwand für die Verwaltung der Systemintegration und der Infrastrukturbereitstellung ab und ermöglichen es Entwicklern, generative KI in ihrem gesamten Unternehmen in vollem Umfang zu nutzen.

Mit Amazon-Bedrock-Agenten können Sie FMs sicher mit Ihren Unternehmensdatenquellen verbinden. Mit einer Wissensdatenbank können Sie Kundendienstmitarbeiter einsetzen, um FMs in Amazon Bedrock Zugriff auf zusätzliche Daten zu gewähren, die dem Modell helfen, relevantere, kontextspezifischere und genauere Antworten zu generieren, ohne das FM ständig neu trainieren zu müssen. Basierend auf Benutzereingaben identifizieren die Kundendienstmitarbeiter die entsprechende Wissensbasis, rufen die relevanten Informationen ab und fügen die Informationen zur Eingabeaufforderung hinzu, sodass das Modell mehr Kontextinformationen erhält, um eine Vervollständigung zu generieren.

Amazon-Bedrock-Agenten unterstützen Sie dabei, Ihre Produktivität zu steigern, Ihr Kundenservice-Erlebnis zu verbessern und Workflows zu automatisieren (z. B. bei der Bearbeitung von Versicherungsansprüchen).

Mit Agenten erhalten Entwickler nahtlose Unterstützung für Überwachung, Verschlüsselung, Berechtigungen für Benutzer, Versionsverwaltung und die Verwaltung von API-Aufrufen, ohne eigenen Code schreiben zu müssen. Amazon-Bedrock-Agenten automatisieren die schnelle Entwicklung und Orchestrierung benutzerangeforderter Aufgaben. Entwickler können die vom Agenten erstellte Vorlage für Prompts als Grundlage verwenden, um sie für eine verbesserte Benutzererfahrung weiter zu verfeinern. Sie können die Benutzereingabe, den Orchestrierungsplan und die FM-Antwort aktualisieren. Mit dem Zugriff auf die Prompt-Vorlage haben Entwickler eine bessere Kontrolle über die Kundendienstmitarbeiter-Orchestrierung.

Mit vollständig verwalteten Kundendienstmitarbeitern müssen Sie sich keine Gedanken über die Bereitstellung oder Verwaltung der Infrastruktur machen und können Anwendungen schneller zur Produktion bringen.

Sicherheit

Alle von Amazon Bedrock verarbeiteten Kundeninhalte werden verschlüsselt und im Ruhezustand in der AWS-Region gespeichert, in der Sie Amazon Bedrock verwenden.

Nein. Die Eingaben der Nutzer und die Ergebnisse des Modells werden nicht an die Modellanbieter weitergegeben.

Amazon Bedrock bietet verschiedene Funktionen zur Unterstützung von Sicherheits- und Datenschutzanforderungen. Amazon Bedrock erfüllt gängige Compliance-Standards wie Fedramp Moderate, Service and Organization Control (SOC), Internationale Organisation für Normung (ISO) und Berechtigung zum Health Insurance Portability and Accountability Act (HIPAA). Kunden können Bedrock in Übereinstimmung mit der Datenschutz-Grundverordnung (DSGVO) verwenden. Amazon Bedrock ist im Umfang der SOC-Berichte 1, 2 und 3 enthalten, sodass Kunden Einblicke in unsere Sicherheitskontrollen erhalten. Wir weisen die Einhaltung der Vorschriften durch umfangreiche Prüfungen unserer AWS-Kontrollen durch Dritte nach. Amazon Bedrock ist einer der AWS-Services, die der ISO-Konformität für die Normen ISO 9001, ISO 27001, ISO 27017, ISO 27018, ISO 27701, ISO 22301 und ISO 20000 unterliegen. Amazon Bedrock ist nach CSA Security Trust Assurance and Risk (STAR) Level 2 zertifiziert, was die Verwendung von bewährten Verfahren und den Sicherheitsstatus der AWS-Cloud-Angebote bestätigt. Bei Amazon Bedrock werden Ihre Inhalte nicht zur Verbesserung der Basismodelle verwendet und nicht an Drittanbieter von Modellen weitergegeben. Sie können AWS PrivateLink verwenden, um eine private Konnektivität von Amazon VPC zu Amazon Bedrock herzustellen, ohne Ihre Daten dem Internetverkehr auszusetzen.

 

Nein, AWS und die Modell-Drittanbieter werden keine Eingaben oder Ausgaben von Amazon Bedrock verwenden, um Amazon Titan oder Drittanbieter-Modelle zu trainieren.

SDK

Amazon Bedrock unterstützt SDKs für Laufzeit-Services. iOS- und Android-SDKs sowie Java, JS, Python, CLI, .Net, Ruby, PHP, Go und C++ unterstützen sowohl Text- als auch Spracheingabe.

Streaming wird in allen SDKs unterstützt.

Abrechnung und Support

Aktuelle Preisinformationen finden Sie auf der Seite mit der Preisübersicht für Amazon Bedrock.

Abhängig von Ihrem AWS-Support-Vertrag wird Amazon Bedrock im Rahmen der Pläne Developer Support, Business Support und Enterprise Support unterstützt.

Sie können CloudWatch-Metriken verwenden, um die Eingabe- und Ausgabe-Token zu verfolgen.

Individuelle Anpassung

Wir haben Continued Pre-Training für Modelle von Amazon Titan Text Express und Amazon Titan auf Amazon Bedrock eingeführt. Continued Pre-Training ermöglicht es Ihnen, das Vortraining auf einem Amazon-Titan-Basismodell mit großen Mengen an ungekennzeichneten Daten fortzusetzen. Bei dieser Art von Training wird das Modell von einem allgemeinen Domain-Korpus an einen spezifischeren Domain-Korpus wie Medizin, Recht, Finanzen usw. angepasst, wobei die meisten Fähigkeiten des Amazon-Titan-Basismodells erhalten bleiben. 

Unternehmen möchten möglicherweise Modelle für Aufgaben in einer bestimmten Domain erstellen. Die Basismodelle sind möglicherweise nicht auf die Fachsprache trainiert, die in dieser speziellen Domain verwendet wird. Die direkte Feinabstimmung des Basismodells erfordert daher große Mengen an gekennzeichneten Trainingsdatensätzen und eine lange Trainingsdauer, um genaue Ergebnisse zu erzielen. Um diesen Aufwand zu verringern, kann der Kunde stattdessen große Mengen an nicht gekennzeichneten Daten für einen Continued-Pre-Training-Auftrag zur Verfügung stellen. Mit dieser Aufgabe wird das Amazon-Titan-Basismodell an die neue Domain angepasst. Anschließend kann der Kunde das neu vortrainierte benutzerdefinierte Modell auf nachgelagerte Aufgaben abstimmen, wobei deutlich weniger markierte Trainingsdatensätze und eine kürzere Trainingsdauer benötigt werden. 

Amazon Bedrock Continued Pre-Training und Fine Tuning haben sehr ähnliche Anforderungen. Aus diesem Grund haben wir uns dafür entschieden, einheitliche APIs zu erstellen, die sowohl das fortlaufende Pre-Training als auch Fine Tuning unterstützen. Die Vereinheitlichung der APIs reduziert die Lernkurve und hilft den Kunden bei der Nutzung von Standard-Features wie Amazon EventBridge zur Verfolgung lang laufender Aufträge, Amazon-S3-Integration zum Abrufen von Trainingsdaten, Ressourcen-Tags und Modellverschlüsselung. 

Das Continued Pre-Training hilft Ihnen, die Amazon-Titan-Modelle an Ihre Domain-Spezifischen Daten anzupassen, wobei die Basisfunktionalität der Amazon-Titan-Modelle erhalten bleibt. Um einen Continued-Pre-Training-Auftrag zu erstellen, navigieren Sie zur Amazon-Bedrock-Konsole und klicken Sie auf „Benutzerdefinierte Modelle“. Sie navigieren zur Seite für benutzerdefinierte Modelle, die zwei Registerkarten enthält: Modelle und Trainingsaufträge. Beide Registerkarten bieten auf der rechten Seite ein Dropdownmenü namens „Modell anpassen“. Wählen Sie im Dropdownmenü „Continued Pretraining“ aus, um zu „Continued-Pretraining-Auftrag erstellen“ zu gelangen. Sie geben das Quellmodell, den Namen, die Modellverschlüsselung, die Eingabedaten, die Hyperparameter und die Ausgabedaten an. Zusätzlich können Sie Tags sowie Details zu AWS Identity and Access Management (IAM)-Rollen und Ressourcenrichtlinien für den Auftrag angeben.

Amazon Titan

Die Amazon-Titan-Modellfamilie ist exklusiv für Amazon Bedrock erhältlich und beinhaltet die 25-jährige Erfahrung von Amazon bei Innovationen mit KI und Machine Learning im gesamten Unternehmen. Amazon-Titan-FMs bieten Kunden über eine vollständig verwaltete API eine breite Auswahl an leistungsstarken Bild-, multimodalen und Textmodellen. Amazon-Titan-Modelle werden von AWS erstellt und anhand großer Datensätze vortrainiert, sodass sie leistungsstarke Allzweckmodelle sind, die eine Vielzahl von Anwendungsfällen unterstützen und gleichzeitig den verantwortungsvollen Umgang mit KI unterstützen. Verwenden Sie sie unverändert oder passen Sie sie individuell mit Ihren eigenen Daten an. Weitere Informationen zu Amazon Titan.

Weitere Informationen zu den Daten, die zur Entwicklung und zum Training von Amazon-Titan-FMs verarbeitet werden, finden Sie auf der Seite Training und Datenschutz für Amazon-Titan-Modelle.

Wissensdatenbanken / RAG

Sie können Inhalte aus verschiedenen Quellen aufnehmen, darunter das Internet, Amazon Simple Storage Service (Amazon S3), Confluence (Vorschau), Salesforce (Vorschau) und SharePoint (Vorschau). Sie können auch Streaming-Daten oder Daten aus nicht unterstützten Quellen programmgesteuert erfassen. Sie können auch eine Verbindung zu Ihren strukturierten Datenquellen wie dem Redshift-Datawarehouse und dem AWS-Glue-Datenkatalog herstellen.

Amazon Bedrock-Wissensdatenbanken bieten eine verwaltete natürliche Sprache für SQL, um natürliche Sprache in umsetzbare SQL-Abfragen umzuwandeln und Daten abzurufen, sodass Sie Anwendungen mit Daten aus diesen Quellen erstellen können.

Ja, die Verwaltung des Kontexts von Sessions ist integriert, sodass Ihre Anwendungen den Kontext über mehrere Interaktionen hinweg beibehalten können, was für die Unterstützung mehrteiliger Unterhaltungen unerlässlich ist.

Ja, alle abgerufenen Informationen enthalten Zitate, wodurch die Transparenz verbessert und das Risiko von Halluzinationen in den generierten Antworten minimiert wird.

Amazon Bedrock Knowledge Bases unterstützt die multimodale Datenverarbeitung und ermöglicht es Entwicklern, Anwendungen mit generativer KI zu erstellen, die sowohl Text- als auch visuelle Daten, einschließlich Bilder, Diagramme und Tabellen, analysieren. Modellantworten können zusätzlich zu Text auch Insights aus visuellen Elementen nutzen und so genauere und kontextrelevante Antworten liefern. Darüber hinaus umfasst die Quellenangabe für Antworten visuelle Elemente, was die Transparenz und das Vertrauen in die Antworten erhöht.

Amazon Bedrock Wissensdatenbanken können visuell reichhaltige Dokumente im PDF-Format verarbeiten, die Bilder, Tabellen, Diagramme und Schaubilder enthalten können. Bei reinen Bilddaten unterstützt Bedrock Wissensdatenbanken Standardbildformate wie JPEG und PNG und ermöglicht Suchfunktionen, mit denen Benutzer relevante Bilder auf der Grundlage textbasierter Abfragen abrufen können.

Kunden haben drei Parsing-Optionen für Bedrock-Wissensdatenbanken. Für die reine Textverarbeitung steht der integrierte Standard-Bedrock-Parser ohne zusätzliche Kosten zur Verfügung, ideal für Fälle, in denen keine multimodale Datenverarbeitung erforderlich ist. Amazon Bedrock Data Automation (BDA) oder Foundation-Modelle können zum Parsen multimodaler Daten verwendet werden. Weitere Informationen finden Sie in der Produktdokumentation

Amazon Bedrock Knowledge Base bewältigt verschiedene komplexe Workflows wie Inhaltsvergleiche, Fehlerbehandlung, Steuerung des Durchsatzes und Verschlüsselung und stellt sicher, dass Ihre Daten gemäß den strengen Sicherheitsstandards von AWS sicher verarbeitet und verwaltet werden.

Modellevaluierung

Mit der Modellbewertung von Amazon Bedrock können Sie mit nur wenigen kurzen Schritten das beste FM für Ihren Anwendungsfall bewerten, vergleichen und auswählen. Amazon Bedrock bietet die Wahl zwischen automatischer Bewertung und menschlicher Bewertung. Sie können die automatische Bewertung mit vordefinierten Metriken wie Genauigkeit, Robustheit und Toxizität verwenden. Sie können menschliche Bewertungs-Workflows für subjektive oder benutzerdefinierte Metriken wie Freundlichkeit, Stil und Übereinstimmung mit der Markensprache verwenden. Bei menschlichen Bewertungen können Ihre eigenen Mitarbeiter oder ein von AWS verwaltetes Team als Prüfer eingesetzt werden. Die Modellbewertung von Amazon Bedrock bietet integrierte kuratierte Datensätze. Sie können aber auch Ihre eigenen Datensätze verwenden.

Mithilfe automatischer Bewertungen können Sie eine Vielzahl vordefinierter Metriken wie Genauigkeit, Robustheit und Toxizität bewerten. Sie können auch menschliche Bewertungs-Workflows für subjektive oder benutzerdefinierte Metriken verwenden, wie z. B. Freundlichkeit, Relevanz, Stil und Übereinstimmung mit der Markensprache.

Automatische Bewertungen ermöglichen es Ihnen, die Liste der verfügbaren FMs anhand von Standardkriterien (wie Genauigkeit, Toxizität und Robustheit) schnell einzugrenzen. Von Menschen durchgeführte Bewertungen werden häufig zur Beurteilung von differenzierteren oder subjektiven Kriterien verwendet, welche ein menschliches Urteilsvermögen erfordern und bei denen es möglicherweise keine automatischen Bewertungen gibt (z. B. Übereinstimmung mit der Markensprache, kreative Absicht, Freundlichkeit).

Sie können Amazon-Bedrock-Modelle schnell auf Metriken wie Genauigkeit, Robustheit und Toxizität prüfen, indem Sie kuratierte integrierte Datensätze verwenden oder Ihre eigenen Prompt-Datensätze einbringen. Nachdem Ihre Prompt-Datensätze zur Inferenz an Amazon.Bedrock-Modelle gesendet wurden, werden die Modellantworten mit Bewertungsalgorithmen für jede Dimension bewertet. Die Backend-Engine fasst die einzelnen Prompt-Response-Ergebnisse zu einer Gesamtbewertung zusammen und stellt sie in leicht verständlichen visuellen Berichten dar.

Mit Amazon Bedrock können Sie in wenigen Schritten menschliche Überprüfungsworkflows einrichten und Ihre internen Mitarbeiter oder ein von AWS verwaltetes Expertenteam zur Bewertung von Modellen heranziehen. Über die intuitive Benutzeroberfläche von Amazon Bedrock können Benutzer Modellantworten überprüfen und Feedback dazu geben, indem sie auf Daumen hoch oder runter klicken, auf einer Skala von 1 bis 5 bewerten, die beste aus mehreren Antworten auswählen oder Prompts bewerten. Beispielsweise kann einem Teammitglied gezeigt werden, wie zwei Modelle auf dieselbe Aufforderung reagieren, und dann aufgefordert werden, das Modell auszuwählen, das genauere, relevantere oder stilistischere Ergebnisse liefert. Sie können die für Sie wichtigen Bewertungskriterien festlegen, indem Sie die Anweisungen und Schaltflächen auf der Bewertungsoberfläche für Ihr Team anpassen. Sie können auch detaillierte Anweisungen mit Beispielen und dem Gesamtziel der Modellbewertung geben, damit Benutzer ihre Arbeit entsprechend ausrichten können. Diese Methode ist nützlich, um subjektive Kriterien zu bewerten, die ein menschliches Urteilsvermögen oder ein differenziertes Fachwissen erfordern und die nicht ohne weiteres durch automatische Auswertungen beurteilt werden können.

Verantwortungsvolle KI

Integritätsschutz für Amazon Bedrock unterstützt Sie bei der Implementierung von Schutzmaßnahmen für Ihre generativen KI-Anwendungen basierend auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien. Integritätsschutz hilft dabei, die Interaktion zwischen Nutzern und FMs zu kontrollieren, indem unerwünschte und schädliche Inhalte gefiltert werden, und bald persönlich identifizierbare Informationen (PII) geschwärzt werden, um die Sicherheit von Inhalten und die Privatsphäre in generativen KI-Anwendungen zu verbessern. Sie können mehrere Integrationsschutzebenen mit unterschiedlichen Konfigurationen erstellen, die auf bestimmte Anwendungsfälle zugeschnitten sind. Außerdem können Sie mit dem Integritätsschutz Benutzereingaben und FM-Reaktionen, die gegen die vom Kunden definierten Richtlinien verstoßen könnten, kontinuierlich überwachen und analysieren.

Mit dem Integritätsschutz können Sie eine Reihe von Richtlinien definieren, um Ihre generativen KI-Anwendungen zu schützen. Sie können die folgenden Richtlinien in einem Integritätsschutz konfigurieren.

  • Kontextuelle Erdungsprüfungen: helfen bei der Erkennung und Filterung von Halluzinationen, wenn die Antworten nicht in den Quellinformationen begründet sind (etwa sachlich ungenau oder neue Informationen) und für die Anfrage oder Anweisung des Benutzers irrelevant sind.
  • Automatisierte Begründungsprüfungen: helfen bei der Erkennung sachlicher Ungenauigkeiten in generierten Inhalten, schlagen Korrekturen vor und erklären, warum Antworten korrekt sind, indem sie mit einer strukturierten, mathematischen Darstellung von Wissen abgeglichen werden, die als „Automated Reasoning Policy“ (Richtlinie für automatisierte Begründungen) aufgerufen wird.
  • Inhaltsfilter: helfen Ihnen bei der Konfiguration von Schwellenwerten, um schädliche Textinhalte in Kategorien wie Hass, Beleidigungen, sexuelle Inhalte, Gewalt, Fehlverhalten und Prompts zu erkennen und zu filtern. Zusätzlich können Inhaltsfilter schädliche Bildinhalte in diesen Kategorien erkennen und filtern und so zur Erstellung sicherer multimodaler Anwendungen beitragen.
  • Verweigerte Themen: helfen Ihnen, eine Reihe von Themen zu definieren, die im Kontext Ihrer Anwendung unerwünscht sind. Beispielsweise kann ein Online-Banking-Assistent so konzipiert werden, dass er keine Anlageberatung anbietet.
  • Wortfilter: helfen Ihnen, eine Reihe von Wörtern zu definieren, die in Benutzereingaben und von FM generierten Antworten blockiert werden sollen.
  • Filter für sensible Informationen: hilft Ihnen, sensible Informationen wie eine Reihe von personenbezogenen Daten zu behandeln, die in von FM generierten Antworten redigiert werden können. Je nach Anwendungsfall kann der Integritätsschutz Ihnen auch dabei helfen, eine Benutzereingabe zu blockieren, wenn sie PII enthält.

Amazon Bedrock Guardrails funktioniert mit einer Vielzahl von Modellen, einschließlich FMs, die in Amazon Bedrock unterstützt werden, optimierten Modellen sowie selbst gehosteten Modellen außerhalb von Amazon Bedrock. Benutzereingaben und Modellausgaben können mithilfe der ApplyGuardrail-API unabhängig voneinander für Drittanbieter- und selbst gehostete Modelle ausgewertet werden. Amazon Bedrock Integritätsschutz kann auch in Amazon Bedrock Agenten und Amazon Bedrock Wissensdatenbanken integriert werden, um sichere und geschützte Anwendungen generativer KI zu erstellen, die mit den Richtlinien für verantwortungsvolle KI übereinstimmen

Es gibt fünf Integritätsschutz-Richtlinien mit jeweils unterschiedlichen vorgefertigten Schutzmaßnahmen

  • Inhaltsfilter – Es gibt 6 vorgefertigte Kategorien (Hass, Beleidigungen, Sex, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriff (Jailbreak und Prompt-Injektion). Jede Kategorie kann weitere benutzerdefinierte Schwellenwerte in Bezug auf die Aggressivität der Filterung haben – niedrig/mittel/hoch für Text- und Bildinhalte.
  • Abgelehntes Thema – Hierbei handelt es sich um benutzerdefinierte Themen, die der Kunde mithilfe einer einfachen Beschreibung in natürlicher Sprache definieren kann
  • Filter für vertrauliche Informationen – Dieser wird mit über 30 vorgefertigten PIIs geliefert. Durch das Hinzufügen vertraulicher Kundeninformationen ist eine weitere Anpassung möglich.
  • Wortfilter – Es verfügt über eine vorinstallierte Filterung von Schimpfwörtern und kann mit benutzerdefinierten Wörtern weiter angepasst werden.
  • Kontextbezogene Integritätsprüfungen – Können helfen, Halluzinationen für RAG-, Zusammenfassungs- und Konversationsanwendungen zu erkennen, bei denen Quellinformationen als Referenz zur Validierung der Modellantwort verwendet werden können.

Es gibt fünf Integritätsschutz-Richtlinien mit jeweils unterschiedlichen vorgefertigten Schutzmaßnahmen

  • Inhaltsfilter – Es gibt 6 vorgefertigte Kategorien (Hass, Beleidigungen, Sex, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriff (Jailbreak und Prompt-Injektion). Jede Kategorie kann hinsichtlich der Filteraggressivität weitere benutzerdefinierte Schwellenwerte aufweisen – niedrig/mittel/hoch.
  • Abgelehntes Thema – Hierbei handelt es sich um benutzerdefinierte Themen, die der Kunde mithilfe einer einfachen Beschreibung in natürlicher Sprache definieren kann
  • Filter für vertrauliche Informationen – Dieser wird mit über 30 vorgefertigten PIIs geliefert. Durch das Hinzufügen vertraulicher Kundeninformationen ist eine weitere Anpassung möglich.
  • Wortfilter – Es verfügt über eine vorinstallierte Filterung von Schimpfwörtern und kann mit benutzerdefinierten Wörtern weiter angepasst werden.
  • Kontextbezogene Integritätsprüfungen – Können helfen, Halluzinationen für RAG-, Zusammenfassungs- und Konversationsanwendungen zu erkennen, bei denen Quellinformationen als Referenz zur Validierung der Modellantwort verwendet werden können.

Die Basismodelle verfügen über eigene Schutzmaßnahmen, die standardmäßig den einzelnen Modellen zugeordnet sind. Diese nativen Sicherheitsmaßnahmen sind NICHT Teil des Integritätsschutzes für Amazon Bedrock. Integritätsschutz für Amazon Bedrock ist eine zusätzliche Schicht individueller Schutzmaßnahmen, die der Kunde optional basierend auf seinen Anwendungsanforderungen und verantwortungsvollen KI-Richtlinien anwenden kann.


Im Rahmen des Integritätsschutzes für Amazon Bedrock gehören die Erkennung von SSN und Telefonnummern zu den über 30 standardmäßigen PIIs. Die vollständige Liste finden Sie hier.

Für die Nutzung des Integritätsschutzes für Amazon Bedrock fallen separate Kosten an. Diese können sowohl für die Eingabe als auch für die Ausgabe angewendet werden. Preise finden Sie hier unten auf der Seite. Die Preise für die Bildunterstützung mit Inhaltsfiltern (derzeit in der öffentlichen Vorschau) werden bei der allgemeinen Verfügbarkeit (GA) bekannt gegeben.

Für die Nutzung des Integritätsschutzes für Amazon Bedrock fallen separate Kosten an. Diese können sowohl für die Eingabe als auch für die Ausgabe angewendet werden. Preise finden Sie hier unten auf der Seite.

Ja, Amazon-Bedrock-Integritätsschutz-APIs helfen Kunden bei der Durchführung automatisierter Tests. „Testfallgenerator“ ist vielleicht etwas, das Sie verwenden möchten, bevor Sie Integritätsschutz in der Produktion einsetzen. Es gibt noch keinen nativen Testfallgenerator. Für die fortlaufende Überwachung des Datenverkehrs in der Produktion hilft der Integritätsschutz dabei, detaillierte Protokolle aller Verstöße für alle Eingaben und Ausgaben bereitzustellen, sodass Kunden jede einzelne Eingabe und Ausgabe ihrer generativen KI-Anwendung differenziert überwachen können. Diese Protokolle können in CloudWatch oder S3 gespeichert und zum Erstellen benutzerdefinierter Dashboards basierend auf den Kundenanforderungen verwendet werden.

Mithilfe einer Automated Reasoning-Richtlinie können Automated Reasoning-Prüfungen sowohl auf korrekte Behauptungen als auch auf sachliche Ungenauigkeiten in Inhalten hinweisen. Sowohl für korrekte als auch für ungenaue Aussagen liefert die Automated Reasoning-Prüfung überprüfbare, logische Erklärungen für ihre Ergebnisse. Die Automated Reasoning-Prüfung erfordert die vorherige Einbeziehung eines Experten aus dem jeweiligen Bereich, um eine Richtlinie zu erstellen, und unterstützt nur Inhalte, die Regeln definieren. Andererseits verwendet die kontextuelle Verankerung in Bedrock Integritätsschutz Techniken des Machine Learning, um sicherzustellen, dass der generierte Inhalt den Dokumenten, die als Eingabe aus einer Wissensdatenbank bereitgestellt wurden, genau folgt, ohne dass zusätzliche Vorarbeiten erforderlich sind. Sowohl Automated Reasoning Checks als auch Contextual Grounding geben ihr Feedback in der Guardrail-API-Ausgabe aus. Sie können das Feedback verwenden, um den generierten Inhalt zu aktualisieren.

Amazon Marketplace

Amazon Bedrock Marketplace bietet Kunden über 100 beliebte, aufstrebende oder spezialisierte Modelle zusätzlich zu den Serverless-FMs von Amazon Bedrock, sodass Kunden ihre Anwendungen für generative KI einfach erstellen und optimieren können. In der Amazon Bedrock-Konsole können Kunden einen umfangreichen Katalog von FMs verschiedener Anbieter einsehen. Diese Modelle können dann auf vollständig verwalteten Endpunkten bereitgestellt werden, wobei Sie die gewünschte Anzahl von Instances und Instance-Typen auswählen können. Nach der Bereitstellung kann über die Invoke-API von Amazon Bedrock auf die Modelle zugegriffen werden. Für Chat-optimierte Text-zu-Text-Modelle können Kunden unsere neue Converse-API verwenden, eine einheitliche API, die FM-Unterschiede abstrahiert und den Modellwechsel mit einer einzigen Parameteränderung ermöglicht. Gegebenenfalls können die Modelle mit Amazon Bedrock Playground, Agenten, Wissensdatenbanken, Prompt-Management, Prompt-Flows, Integritätsschutz und Modellbewertung verwendet werden.

Sie sollten Amazon Bedrock Marketplace verwenden, um von den leistungsstarken Modellen zu profitieren, die sich im Zuge der fortlaufenden Innovationen in der Branche der generativen KI schnell entwickeln. Sie können schnell auf beliebte, neu entstehende und spezialisierte Modelle zugreifen und diese bereitstellen, die auf Ihre individuellen Anforderungen zugeschnitten sind. Dadurch können Sie die Markteinführungszeit verkürzen, die Genauigkeit verbessern oder die Kosten Ihrer Workflows für generative KI senken. Sie können über die einheitlichen APIs von Bedrock auf die Modelle zugreifen und sie, wenn sie mit der Converse-API von Bedrock kompatibel sind, nativ mit Bedrock-Tools wie Agenten, Wissensdatenbanken und Integritätsschutz verwenden. Sie können Amazon Bedrock Marketplace ganz einfach mit den Serverless-Modellen von Amazon Bedrock verbinden – alles von einem einzigen Ort aus.
 

Navigieren Sie einfach zur Seite „Amazon Bedrock Model Catalgo“ in der Bedrock-Konsole, wo Sie nach Amazon Bedrock Marketplace-Modelllisten zusammen mit den Serverless Amazon Bedrock-Modellen suchen können. Nachdem Sie das Amazon Bedrock Marketplace-Modell ausgewählt haben, das Sie verwenden möchten, können Sie das Modell über die Seite „Model Detail“ abonnieren und dabei die EULA und die vom Anbieter festgelegten Preise akzeptieren. Sobald das Abonnement abgeschlossen ist, was in der Regel einige Minuten dauert, können Sie das Modell auf einem vollständig verwalteten SageMaker-Endpunkt bereitstellen, indem Sie auf der Seite „Model Detail“ auf „Deploy“ klicken oder APIs verwenden. Im Schritt „Bereitstellung“ können Sie die gewünschte Anzahl von Instances und Instance-Typen auswählen, um Ihren Workload zu erfüllen. Sobald der Endpunkt eingerichtet ist, was in der Regel 10 bis 15 Minuten dauert, können Sie Inferenzaufrufe an den Endpunkt senden und das Modell in den fortschrittlichen Tools von Bedrock verwenden, vorausgesetzt, das Modell ist mit der Converse-API von Bedrock kompatibel.

Modelle mit Architekturen, die von Custom Model Import unterstützt werden (Mistral, Mixtral, Flan und Llama2/3/3.1/3.2), können in SageMaker optimiert und in Amazon Bedrock über Custom Model Import verfügbar gemacht werden. Modelle, die nicht von Custom Model Import unterstützt werden, können in SageMaker trotzdem optimiert werden. Die optimierte Version dieser Modelle kann jedoch nicht in Amazon Bedrock verwendet werden.

Datenautomatisierung

Was ist Bedrock Data Automation? Amazon Bedrock Data Automation ist eine von GenAI betriebene Funktion von Bedrock, die die Entwicklung von Anwendungen mit generativer KI optimiert und Workflows mit Dokumenten, Bildern, Audio und Videos automatisiert. Durch die Nutzung von Bedrock Data Automation können Entwickler die Entwicklungszeit und den Entwicklungsaufwand reduzieren, wodurch die Erstellung intelligenter Lösungen für die Dokumentenverarbeitung, Medienanalyse und andere multimodale datenzentrierte Automatisierungslösungen erleichtert wird. Bedrock Data Automation bietet branchenführende Genauigkeit zu geringeren Kosten als alternative Lösungen, zusammen mit Features wie visuelle Erdung mit Wertungen für Vertrauen in die Erklärbarkeit und integrierter Halluzinationsminderung. Dies gewährleistet vertrauenswürdige und genaue Einblicke aus unstrukturierten, multimodalen Datenquellen. Kunden können die Ausgabe von Bedrock Data Automation einfach anpassen, um spezifische Erkenntnisse in konsistenten Formaten zu generieren, die von ihren Systemen und Anwendungen benötigt werden. Entwickler beginnen mit Bedrock Data Automation auf der Amazon Bedrock-Konsole, wo sie die Ausgabe mithilfe ihrer Beispieldaten konfigurieren und anpassen können. Anschließend können sie die einheitliche multimodale Inferenz-API von Bedrock Data Automation in ihre Anwendungen integrieren, um ihre unstrukturierten Inhalte im Produktionsmaßstab mit hoher Genauigkeit und Konsistenz zu verarbeiten. Bedrock Data Automation ist auch in die Bedrock-Wissensdatenbanken integriert, was es Entwicklern erleichtert, aus ihren unstrukturierten multimodalen Inhalten aussagekräftige Informationen zu generieren, um relevantere Antworten für die Retrieval Augmented Generation (RAG) bereitzustellen.

Bedrock Data Automation erleichtert die Umwandlung unstrukturierter Unternehmensdaten in anwendungsspezifische Ausgabeformate, die von allgemeinen KI-Anwendungen und ETL-Workflows genutzt werden können. Kunden müssen nicht mehr Zeit und Mühe darauf verwenden, mehrere Modelle zu verwalten und zu koordinieren, Prompts zu entwickeln, Integritätsschutz zu implementieren oder Ausgaben zusammenzufügen, um sie an nachgelagerte Systemanforderungen anzupassen. Bedrock Data Automation ermöglicht eine äußerst genaue, konsistente und kostengünstige Verarbeitung unstrukturierter Daten. Bedrock Data Automation wurde mit Blick auf verantwortungsvolle KI entwickelt und bietet Kunden wichtige Features wie visuelle Erdung und Wertungen des Vertrauens, die die Integration von Bedrock Data Automation in die Workflows von Unternehmen erleichtern.

Die Funktionen von Bedrock Data Automation sind über eine vollständig verwaltete API verfügbar, die Kunden einfach in ihre Anwendungen integrieren können. Kunden müssen sich nicht um das Skalieren der zugrunde liegenden Rechenressourcen, das Auswählen und Orchestrieren von Modellen oder das Verwalten von Prompts für FMs kümmern.

Eine Vorlage ist ein Feature, mit dem Kunden ihre Ausgabeanforderungen in natürlicher Sprache oder einem Schema-Editor angeben können. Sie enthält eine Liste der Felder, die extrahiert werden sollen, ein Datenformat für jedes Feld und Anweisungen in natürlicher Sprache für jedes Feld. Entwickler können beispielsweise Folgendes eingeben: „Erstellen Sie eine Vorlage für Rechnungen mit den folgenden Feldern: Steuer, Fälligkeitsdatum, Belegdatum“ oder „Bestätigen Sie, dass der Rechnungsbetrag mit der Summe der Einzelposten übereinstimmt“. Sie verweisen auf Vorlagen als Teil der Inferenz-API-Aufrufe, sodass das System Informationen in dem in der Vorlage beschriebenen Format zurückgibt.

Dokumente

Bedrock Data Automation unterstützt sowohl Standardausgaben als auch benutzerdefinierte Ausgaben für Dokumente.

  • Die Standardausgabe ermöglicht die Extraktion von Text aus Dokumenten und die generative Ausgabe wie Dokumentzusammenfassungen und Beschriftungen für Tabellen/Abbildungen/Diagramme. Die Ausgabe wird in Leserichtung zurückgegeben und kann optional nach Layoutelementen gruppiert werden, zu denen Kopf-/Fußzeilen/Titel/Tabellen/Abbildungen/Diagramme gehören. Die Standardausgabe wird für die BDA-Integration mit Bedrock-Wissensdatenbanken verwendet.
  • Die benutzerdefinierte Ausgabe nutzt Vorlagen, die die Ausgabeanforderungen mithilfe natürlicher Sprache oder eines Schema-Editors spezifizieren. Vorlagen enthalten eine Liste der zu extrahierenden Felder und ein Datenformat für jedes Feld.

Bedrock Data Automation unterstützt PDF, PNG, JPG, TIFF, maximal 100 Seiten und eine maximale Dateigröße von 500 MB pro API-Anfrage. BDA unterstützt eine maximale Gleichzeitigkeit von 5 Dokumentenpaketen und einen Durchsatz von 1 Seite pro Sekunde und Kunde.

Bilder
Bedrock Data Automation unterstützt sowohl Standardausgabe als auch benutzerdefinierte Ausgabe für Bilder.

  • Die Standardausgabe bietet eine Zusammenfassung, erkannte explizite Inhalte, erkannten Text und eine Anzeigen-Taxonomie: IAB für Bilder. Die Standardausgabe wird für die BDA-Integration mit Bedrock-Wissensdatenbanken verwendet.
  • Die benutzerdefinierte Ausgabe nutzt Vorlagen, die die Ausgabeanforderungen mithilfe natürlicher Sprache oder eines Schema-Editors spezifizieren. Vorlagen enthalten eine Liste der zu extrahierenden Felder und ein Datenformat für jedes Feld.

Bedrock Data Automation unterstützt JPG, PNG, eine maximale Auflösung von 4K und eine maximale Dateigröße von 5 MB pro API-Anfrage. BDA unterstützt eine maximale Gleichzeitigkeit von 100 Bildern bei 1 Bild pro Sekunde pro Kunde.

Videos

Bedrock Data Automation unterstützt beide Standardausgaben für Videos.

  • Die Standardausgabe bietet eine vollständige Videozusammenfassung, Szenensegmentierung, Szenenzusammenfassung, vollständige Audiotranskription, Sprecheridentifikation, erkannte explizite Inhalte, erkannten Text und die IAB-Taxonomie (Interactive Advertising Bureau) für Videos. Die vollständige Videozusammenfassung ist für Inhalte mit beschreibendem Dialog wie Produktübersichten, Schulungen, Nachrichtensendungen und Dokumentationen optimiert.

Bedrock Data Automation unterstützt MOV und MKV mit H.264, einer maximalen Videodauer von 4 Stunden und einer maximalen Dateigröße von 2 GB pro API-Anfrage. BDA unterstützt eine maximale Gleichzeitigkeit von 25 Videos mit 20 Videominuten pro Minute und Kunde.

Audio

Bedrock Data Automation unterstützt sowohl die Standardausgabe für Audio.

  • Die Standardausgabe bietet eine Zusammenfassung, vollständige Transkription und erkannte explizite Inhalte für Audiodateien.

Bedrock Data Automation unterstützt FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, eine maximale Audiodauer von 4 Stunden und eine maximale Dateigröße von 2 GB pro API-Anfrage. Die Standardausgabe bietet eine Zusammenfassung, vollständige Transkription und erkannte explizite Inhalte für Audiodateien.

Amazon Bedrock Data Automation ist derzeit in der Region USA West (Oregon) verfügbar.

IDE

Amazon Bedrock IDE (Vorschau) ist eine geregelte kollaborative Umgebung, die in Amazon SageMaker Unified Studio (Vorschau) integriert ist und es Entwicklern ermöglicht, mithilfe von leistungsstarken Basismodellen (FMs) schnell generative KI-Anwendungen zu erstellen und zu iterieren. Sie bietet eine intuitive Schnittstelle, um mit diesen Modellen zu experimentieren, an Projekten zusammenzuarbeiten und den Zugriff auf verschiedene Bedrock-Tools und -Ressourcen zu optimieren, um generative KI-Anwendungen schnell zu erstellen.

Um in Amazon SageMaker Unified Studio auf Amazon Bedrock IDE zuzugreifen, müssen Entwickler und ihre Administratoren die folgenden Schritte ausführen:

  1. Erstellen Sie eine neue Domain in Amazon SageMaker Unified Studio.
  2. Aktivieren Sie das Gen AI-Anwendungsentwicklungsprojektprofil.
  3. Greifen Sie auf Amazon Bedrock IDE zu, indem Sie die Anmeldeinformationen für den Single-Sign-On (SSO) ihres Unternehmens in Amazon SageMaker Unified Studio verwenden.

Amazon Bedrock IDE, jetzt in Amazon SageMaker Unified Studio integriert, baut auf Amazon Bedrock Studio (Vorschau) auf und bietet mehrere wichtige Verbesserungen. Sie können auf fortschrittliche KI-Modelle führender Unternehmen zugreifen, KI-Prompts erstellen und testen und Bedrock Wissensdatenbanken, Integritätsschutz, Flows und Agenten nahtlos integrieren. Teams können in einem gemeinsamen Arbeitsbereich zusammenarbeiten, um benutzerdefinierte KI-Anwendungen zu erstellen, die auf ihre Bedürfnisse zugeschnitten sind.

Zu den neuen Features in Bedrock IDE gehören ein Modell-Hub für den Vergleich von KI-Modellen nebeneinander, ein erweiterter Spielplatz, der Chat-, Bild- und Videointeraktionen unterstützt, und eine verbesserte Erstellung von Wissensdatenbanken mit Web-Crawling. Sie führt die Erstellung von Agenten für komplexere Chat-Anwendungen ein und vereinfacht die gemeinsame Nutzung von KI-Apps und Prompts innerhalb von Organisationen. Bedrock IDE bietet auch die Möglichkeit, auf den zugrunde liegenden Anwendungscode zuzugreifen und Chat-Apps als CloudFormation-Vorlagen zu exportieren. Durch die Verwaltung von AWS-Infrastrukturdetails ermöglicht sie es Benutzern mit unterschiedlichen Fähigkeiten, KI-Anwendungen effizienter zu erstellen, wodurch sie zu einem vielseitigeren und leistungsfähigeren Tool als ihr Vorgänger wird.

Amazon Bedrock IDE ermöglicht die Zusammenarbeit zwischen Teams, indem es eine kontrollierte Entwicklungsumgebung innerhalb von Amazon SageMaker Unified Studio bereitstellt. Teams können Projekte erstellen, Kollegen einladen und gemeinsam generative KI-Anwendungen entwickeln. Sie können schnelles Feedback zu ihren Prototypen erhalten und die Anwendungen mit jedem in Amazon SageMaker Unified Studio oder mit bestimmten Benutzern in der Domäne teilen. Dank robuster Zugriffskontrollen und Governance-Features können nur autorisierte Mitglieder auf Projektressourcen wie Daten oder die generativen KI-Anwendungen zugreifen, was den Datenschutz und die Einhaltung von Vorschriften unterstützt und somit eine sichere funktionsübergreifende Zusammenarbeit und gemeinsame Nutzung fördert. Darüber hinaus können generative KI-Anwendungen von einem Builder für bestimmte Benutzer in der Amazon SageMaker Unified Studio-Domäne oder für bestimmte Einzelpersonen freigegeben werden, sodass angemessene Zugriffsrechte, Kontrollen und Governance für solche Assets möglich sind.

Die Integration von Amazon Bedrock IDE in Amazon SageMaker Unified Studio ist ein Schritt von AWS zur Vereinfachung und Optimierung der Entwicklung generativer KI. Durch diese Integration entsteht eine umfassende Umgebung, die Barrieren zwischen Daten, Tools und Entwicklern abbaut und die effiziente Erstellung und Bereitstellung generativer KI-Anwendungen ermöglicht.

Die einheitliche Umgebung ermöglicht eine nahtlose Zusammenarbeit zwischen Entwicklern mit unterschiedlichen Fähigkeiten während des gesamten Entwicklungszyklus – von der Datenaufbereitung über die Modellentwicklung bis hin zur Erstellung generativer KI-Anwendungen. Teams können innerhalb eines sicheren und kontrollierten Rahmens auf integrierte Tools zur Erstellung von Wissensdatenbanken, zur Optimierung von Modellen und zur Entwicklung leistungsstarker Anwendungen mit generativer KI zugreifen.

In Amazon SageMaker Unified Studio können Entwickler je nach Bedarf mühelos zwischen verschiedenen Tools wechseln und dabei Analyse-, Machine Learning- und generative KI-Funktionen in einem einzigen Arbeitsbereich kombinieren. Dieser konsolidierte Ansatz reduziert die Komplexität der Entwicklung und beschleunigt die Wertschöpfung für Projekte mit generativer KI.

Durch die Integration von Amazon Bedrock IDE in Amazon SageMaker Unified Studio senkt AWS die Eintrittsbarrieren für die Entwicklung generativer KI, während gleichzeitig die Sicherheit und Governance auf Unternehmensebene gewahrt bleibt. So können Unternehmen mit generativer KI letztlich schneller und effektiver innovieren.
 

Derzeit ist Amazon Bedrock Studio als Vorschau-Feature verfügbar, auf das über die AWS-Managementkonsole zugegriffen werden kann. Amazon Bedrock Studio wurde nun in Amazon Bedrock IDE umbenannt und ist in Amazon SageMaker Unified Studio als Vorschauversion verfügbar. Es bietet eine dedizierte Umgebung für die Erstellung, Evaluierung und gemeinsame Nutzung generativer KI-Anwendungen mit erweiterten Funktionen wie Wissensdatenbanken, Integritätsschutz, Agenten, Flows und Prompt-Engineering-Tools. Diese Integration in Amazon SageMaker Unified Studio bietet im Vergleich zur vorherigen Vorschauversion in der AWS-Managementkonsole eine feature-reichere, besser gesteuerte und kollaborativere Entwicklungserfahrung.

Amazon Bedrock Studio ist vollständig in Amazon SageMaker Unified Studio unter Amazon Bedrock IDE enthalten. Der Playground für generative KI, der im Abschnitt „Entdecken“ von Amazon SageMaker Unified Studio verfügbar ist, ermöglicht es Ihnen, mit Basismodellen (FMs) und beliebigen generativen KI-Anwendungen zu experimentieren, die von Ihren Kollegen über eine dialogorientierte Schnittstelle freigegeben wurden. Amazon Bedrock IDE, die vollständige generative KI-Anwendungsumgebung, befindet sich im Abschnitt „Erstellen“ von Amazon SageMaker Unified Studio und kann über Projekte aufgerufen werden.

Wann Sie welches Angebot nutzen sollten:

  • Vorhandenes Amazon Bedrock Studio in der AWS-Managementkonsole: Sie können das vorhandene Amazon Bedrock Studio in der AWS-Konsole für laufende Projekte bis zum 28.02.2025 weiter verwenden. Danach endet der Support. Sie müssen eine neue Amazon SageMaker-Domain einrichten, die Amazon Bedrock IDE enthält, um innerhalb der von Amazon SageMaker verwalteten Umgebung darauf zugreifen zu können.
  • Generative KI-Spielwiese in Amazon SageMaker Unified Studio (Abschnitt „Entdecken“): Nutzen Sie die Chat-, Bild- und Video-Spielwiesen für erste Experimente mit FMs und testen Sie verschiedene Modelle und Konfigurationen, bevor Sie Anwendungen in Amazon Bedrock IDE erstellen.
  • Amazon Bedrock IDE in Amazon SageMaker Unified Studio (Abschnitt „Erstellen“): Nutzen Sie Amazon Bedrock IDE, das im Abschnitt „Erstellen“ verfügbar ist, um die Vorteile der erweiterten Funktionen für die Erstellung produktionsreifer generativer KI-Anwendungen zu nutzen. Dazu gehören integrierte Governance, sichere Zusammenarbeit, Wissensdatenbanken, Agenten, Abläufe, Integritätsschutz und Prompt-Engineering-Tools.

Amazon Bedrock IDE ist eine kontrollierte kollaborative Umgebung, die sich auf die Erstellung generativer KI-Anwendungen mithilfe von Basismodellen (FMs) konzentriert. Die in Amazon SageMaker Unified Studio integrierte IDE bietet eine intuitive Schnittstelle, über die Sie auf die leistungsstarken FMs von Bedrock zugreifen und damit experimentieren können, sowie Tools zur Anpassung wie Wissensdatenbanken, Integritätsschutz, Agenten und Flows.

Innerhalb von Amazon SageMaker Unified Studio lässt sich Amazon Bedrock IDE nahtlos in die Analyse-, Machine Learning (ML)- und generative KI-Funktionen von Amazon SageMaker integrieren. Benutzer können Analyseservices nutzen, um aus ihren Daten Insights zu generieren, ML-Modelle mithilfe der Trainings- und Bereitstellungstools von Amazon SageMaker AI zu erstellen und diese Komponenten mit in Amazon Bedrock IDE erstellten Anwendungen für generative KI zu kombinieren. Diese einheitliche Umgebung ermöglicht die durchgängige Entwicklung datengesteuerter Anwendungen, die Analyse-, ML- und generative KI-Funktionen kombinieren. Benutzer können ML- und generative KI-Modelle erstellen und bereitstellen, generative KI-Anwendungen erstellen und teilen, die auf proprietäre Daten und Anpassungen zugeschnitten sind, und die Zusammenarbeit optimieren – und das alles innerhalb derselben kontrollierten Amazon SageMaker Unified Studio-Umgebung
 

Bestehende Benutzer von Amazon Bedrock Studio, die über die AWS-Managementkonsole auf den Service zugegriffen haben, können ihre Projekte nicht direkt zu Amazon SageMaker Unified Studio migrieren. Um auf Amazon Bedrock IDE in der von Amazon SageMaker verwalteten Umgebung zuzugreifen, müssen Entwickler und ihre Administratoren eine neue Domain in Amazon SageMaker Unified Studio erstellen, das Gen AI-Anwendungsentwicklungsprojektprofil aktivieren und mit den Anmeldeinformationen für die Single Sign-On (SSO) ihres Unternehmens in Amazon SageMaker Unified Studio auf Amazon Bedrock IDE zugreifen.

Bestehende Benutzer können jedoch bis zum 28.02.2025 weiterhin über die AWS-Managementkonsole auf Amazon Bedrock Studio (Preview) zugreifen. Nach diesem Datum müssen sie auf die neue Amazon Bedrock IDE-Oberfläche in Amazon SageMaker Unified Studio umsteigen.

Amazon Bedrock IDE innerhalb von Amazon SageMaker Unified Studio ist an die für die Plattform und die zugrunde liegenden Amazon Bedrock-Ressourcen definierten Kontolimits und -kontingente gebunden, wie etwa Basismodelle (FMs), Wissensdatenbanken, Agenten, Flows und Integritätsschutz.

Amazon Bedrock IDE ist kostenlos und Benutzer zahlen nur für die Verwendung der zugrunde liegenden Ressourcen, die für die von ihnen erstellten Anwendungen mit generativer KI erforderlich sind. Kunden zahlen beispielsweise nur für das zugehörige Modell, den Integritätsschutz und die Wissensdatenbank, die sie für ihre generative KI-Anwendung verwendet haben. Weitere Informationen finden Sie auf der Amazon Bedrock-Preisseite.

Amazon Bedrock IDE innerhalb von Amazon SageMaker Unified Studio unterliegt denselben SLAs wie Amazon Bedrock. Weitere Informationen finden Sie auf der Seite Amazon Bedrock Service Level Agreement.

Um eine reibungslose Einführung in Amazon Bedrock IDE in Amazon SageMaker Unified Studio zu ermöglichen, finden Sie eine ausführliche Dokumentation im Amazon Bedrock IDE Benutzerhandbuch. Wenn Sie weitere Fragen haben oder zusätzliche Unterstützung benötigen, wenden Sie sich bitte an Ihr AWS-Kundenteam.