KI auf AWS aufbauen: Mit Bedrock auf solide Bausteine setzen

Wenn ihr KI auf AWS erstellen möchtet, solltet ihr Bedrock in Betracht ziehen. Es ist vollgepackt mit cleveren Funktionen, die nahtlos mit dem Rest des AWS-Ökosystems zusammenarbeiten und so Zeit, Risiko und Aufwand sparen.
In diesem Blogbeitrag erkläre ich die Grundlagen für den Einstieg, darunter:
- Was es tut.
- Wie es mit anderen AWS-Tools zusammenpasst.
- Die wichtigsten Konzepte und Funktionen, auf denen es aufbaut und die es nutzt.
- Wie Sie die API verwenden.
- Wie die Preisgestaltung funktioniert.
Ein kurzer Rückblick auf den vorherigen Blogbeitrag in dieser Serie
In meinem ersten Blog-Beitrag dieser Serie zum Aufbau von KI auf AWS-Services habe ich kritische Fehler untersucht, die beim Aufbau von KI-Lösungen auf AWS zu vermeiden sind. Meine wichtigsten Empfehlungen für die erfolgreiche Bereitstellung von KI-Lösungen waren:
- Definiert eine klare KI-Strategie.
- Implementiert einen umfassenden Datenverwaltungsplan.
- Optimiert die Kosten effektiv.
- Konzentriert euch auf Metriken, die sich auf den Nutzen von KI beziehen.
Ich habe auch drei verschiedene Ebenen der wichtigsten KI-Services von AWS definiert: Amazon Q, AWS Bedrock und AWS Sagemaker. Auch wenn wir uns in diesem Blog-Beitrag auf AWS Bedrock konzentrieren, lohnt es sich, zu diesem früheren Blog-Beitrag zurückzukehren, um die beiden anderen Tools, die zusammenarbeiten, kennenzulernen.
Was leistet AWS Bedrock?
AWS Bedrock bietet euch die Bausteine für die Erstellung beeindruckender KI-Tools. Ihr habt automatisch Zugriff auf eine ganze Reihe von KI-Modellen – einige für Sprache und einige für Bilder und Grafiken. Das ist großartig, denn so seid ihr nicht auf ein einziges Modell festgelegt, sondern könnt dasjenige auswählen, das euren Anforderungen und eurem Budget am besten entspricht.
Bedrock wird zwar hauptsächlich über APIs verwendet, bietet aber auch eine praktische Sandbox-GUI, die euch den Einstieg erleichtert. Wir werden uns die Konzepte und Funktionen, die dies ermöglichen, später genauer ansehen, einschließlich Bedrock Studio, das es Entwicklern und Datenanalysten erleichtert, KI-Anwendungen zu visualisieren, zu testen und zu optimieren, ohne direkt in den Code oder die APIs einsteigen zu müssen.
Wie sich AWS Bedrock von der AWS-KI-Landschaft abhebt
Was die AWS-KI-Services angeht, so besteht ein Teil der Idee hinter Bedrock darin, dass es "kein Modell gibt, das für alle gilt".
Als Entwickler habt ihr mit Bedrock nicht nur Zugriff auf ein einziges Modell, sondern dank des API-first-Ansatzes auf eine breite Palette von Basismodellen. Dies gibt euch die Flexibilität, unterschiedliche Anforderungen zu erfüllen.
Ihr könnt die perfekte, effizienteste Lösung für euren Anwendungsfall finden, ohne den Overhead der Serverwartung, da Bedrock serverlos ist. Außerdem hat AWS eine Vorschau auf eine neue Bedrock-Funktion veröffentlicht, mit der ihr Modelle in Bedrock importieren können.
Die wichtigsten Konzepte, die ihr für die Arbeit mit Bedrock beherrschen müssen
Grundmodelle (FMs)
Bedrock verfügt über eine große Sammlung von vortrainierten Foundation-Modellen (FMs) für verschiedene Aufgaben der natürlichen Sprachverarbeitung (NLP) und des maschinellen Lernens (ML). Diese Modelle umfassen große Sprachmodelle (LLMs) und multimodale Modelle, die alle für unterschiedliche Anwendungen entwickelt wurden.
Diese FMs können eine breite Palette von Aufgaben erfüllen, wie z. B.:
- Schreiben von Blogbeiträgen.
- Zusammenfassen von Dokumenten.
- Lösen von logischen Problemen.
- Chatten.
- Beantworten von Fragen.
- Und sogar das Komponieren von Musik und Gedichten.
Einige LLM-Modelle, wie z. B. Llama 3 von Meta und Titan Text G1 von AWS, sind auf textbasierte Aufgaben spezialisiert. Sie sind in der Lage, menschenähnlichen Text zu verstehen und zu erzeugen und eignen sich daher für Sprachübersetzung, Textzusammenfassung und Inhaltserstellung. Die FM-"Familien" verfügen oft über verschiedene Versionen, die für bestimmte Aufgaben optimiert sind, z. B. für Zusammenfassungen, Chats oder schnelle Antworten.
Multimodale Modelle, wie Claude 3.5 von Anthropic, verarbeiten mehrere Eingabearten, wie Text, Bilder und Audio. Das bedeutet, dass sie Aufgaben mit mehreren Datentypen gleichzeitig bewältigen können.
Da die FMs in Bedrock so unterschiedlich sind, könnt ihr als Entwickler das am besten geeignete Modell für euren speziellen Anwendungsfall auswählen, egal ob dieser rein textbasiert ist oder multimodale Fähigkeiten benötigt.
Ihr könnt FMs in einer Vielzahl von Anwendungen einsetzen, von Chatbots und virtuellen Assistenten bis hin zur Inhaltserstellung und Datenanalyse, ohne komplexe Modelle von Grund auf zu trainieren oder sich auf eine einzige Modellfamilie festlegen zu müssen.Ihr könnt euch auf die Hauptaufgabe konzentrieren und einfach das beste Modell für diese Aufgabe auswählen.
Retrieval Augmented Generation (RAG)
Stellt euch vor, Sehr habt euch für das beste Modell entschieden, benötigt nun aber ein Modell, das sehr spezifische Fragen zu eurem Geschäftsfeld oder eurem Unternehmen beantworten kann.
An dieser Stelle kommt RAG zum Einsatz. Es funktioniert folgendermaßen:
- Das Modell selbst enthält allgemeine Kenntnisse und Fähigkeiten, um menschenähnliche Diskussionen mit zusammenhängenden Sätzen zu führen.
- RAG fügt diesem Wissen spezifische Informationen hinzu, die auf zusätzlichen Daten beruhen, die ihr zur Verfügung stellt.
Für einen tieferen Einblick in RAG empfehle ich den hervorragenden Blogbeitrag meines Kollegen: Überlegungen zu RAG-Systemen in der Produkt- und Dienstleistungsentwicklung.
In Bedrock befinden sich die RAG-Funktionen in Wissensdatenbanken. Das "RAGging" bereichert dann die Antworten des Modells, indem es relevante Informationen aus diesen Wissensdatenbanken abruft.
Eine Wissensdatenbank kann nicht nur zur Beantwortung von Benutzeranfragen und zur Analyse von Dokumenten verwendet werden, sondern auch zur Anreicherung von Aufforderungen an die Basismodelle durch Hinzufügen von Kontext. Die Antworten enthalten Zitate, damit die Benutzer die Informationen und ihre Richtigkeit überprüfen können.
Um die Wissensdatenbank zu nutzen, müsst ihr eure Daten vorverarbeiten, damit sie für Abfragen verwendet werden können. Dieser Prozess umfasst die Aufteilung eurer Daten in Teile, die dann verarbeitet, indiziert und bei Abfragen abgerufen werden, sowie die Erstellung von Einbettungen mit dem von euch gewählten Modell.
Um die beste Leistung aus euren Wissensdatenbanken herauszuholen, müsst ihr eure Chunking-Strategie testen. Chunking ist entscheidend. Es schafft nicht nur genauere semantische Verbindungen und bessere Antworten, sondern hat auch positive Auswirkungen auf die allgemeine Leistung und die Kosten.
Einbetten
Einbetten bedeutet, dass eure Daten – Wörter, Bilder oder andere Eingaben – zunächst durch ihre semantische Beziehung in numerische Vektoren umgewandelt und dann in einer Vektordatenbank gespeichert werden.
Die Datenbank hilft dem KI-Modell, Beziehungen zwischen Wörtern zu verstehen und benutzerdefinierte Aufgaben zu verbessern, wie z. B.:
- Textklassifizierung.
- Zusammenfassen.
- Übersetzung.
- Stimmungsanalyse.
Im Wesentlichen wandeln Einbettungen komplexe Daten in ein Format um, das für fundiertere Entscheidungen genutzt werden kann.
Wissensdatenbank-Metadaten
Möchtet ihr eine Filterung der Daten während einer Wissensbasisabfrage ermöglichen? Dann verwendet eine separate Metadaten-Datei, die Attribute über die bereitgestellte Wissensdatenbank-Datei enthält. Die Datei muss sich im gleichen S3-Bucket wie die Datendatei befinden und den gleichen Namen wie die zugehörige Datei haben, jedoch mit der Erweiterung .metadata.json.
Sicherheit und Leitplanken
Wie immer bei AWS verwendet Bedrock ein Modell der geteilten Verantwortung, und das Unternehmen hat die Grundlagen in Bezug auf die Hardware und die Verschlüsselung von Daten bei der Übertragung und im Ruhezustand abgedeckt.
Kundendaten werden nicht mit Modellanbietern geteilt und nicht zur Verbesserung der Basismodelle verwendet.
Wie ihr erwarten könnt, erfüllt Bedrock auch alle gängigen Compliance-Standards, wie ISO, HIPAA und GDPR.
Zur Unterstützung von Governance und Audits bietet Bedrock außerdem umfangreiche Überwachungs- und Protokollierungsfunktionen.
- Verwendet Amazon CloudWatch, um Nutzungsmetriken zu verfolgen und benutzerdefinierte Dashboards für Auditing-Zwecke zu erstellen.
- AWS CloudTrail verfolgt alle API-Aktivitäten und hilft bei Bedarf bei der Fehlerbehebung.
- Das Speichern von Metadaten, Anfragen und Antworten im S3-Bucket und in Amazon CloudWatch Logs ist ebenfalls möglich (und empfohlen).
Guardrails
Neben Bedrocks Compliance- und Secure-by-default-Setup gibt es eine Funktion namens Guardrails, mit der ihr bestimmte Grenzen setzen könnt, um die KI anzuweisen, nur sichere und verantwortungsvolle Antworten zu geben. Dies gilt sowohl für die Eingabe als auch für die Ausgabe. Gegenwärtig gibt es vier verschiedene Kategorien von Leitplanken, die ihr beliebig kombinieren könnt:
Inhaltsfilter
Ändert die Filterstufen, um Eingabeaufforderungen oder Modellantworten zu verhindern, die schädliche Inhalte enthalten.
Verweigerte Themen
Gebt eine Liste von Themen an, die für eure Anwendung nicht zulässig sind. Diese Themen werden blockiert, wenn sie in Benutzerabfragen oder Modellantworten erscheinen. Ihr könnt bis zu 30 Themen pro Leitplanke auswählen.
Wortfilter
Richtet Filter ein, um unerwünschte Wörter, Phrasen und Schimpfwörter zu blockieren, einschließlich beleidigender Begriffe und Namen von Wettbewerbern. Der einfachste Weg, diesen Filter zu verwenden, besteht darin, diese Wörter oder Ausdrücke in einer Datei zusammenzustellen und sie dann in die Leitplanke hochzuladen.
Filter für vertrauliche Informationen
Blockiert oder verdeckt sensible Informationen, wie z. B. persönlich identifizierbare Informationen (PII) oder andere Muster, die ihr in Benutzereingaben und Modellantworten ausschließen möchtet. Diese Anweisungen werden als Regex-Muster angegeben.
Ihr könnt auch Leitplanken so einrichten, dass Meldungen an den Benutzer zurückgegeben werden, wenn die Eingabe oder eine Modellantwort gegen eure definierten Leitplankenrichtlinien verstößt.
Ihr könnt mehrere Versionen eurer Leitplanke erstellen. Wenn ihr beginnt, wird automatisch ein Arbeitsentwurf bereitgestellt, den ihr iterativ ändern könnt. Ihr könnt mit verschiedenen Konfigurationen experimentieren und das eingebaute Testfenster verwenden, um festzustellen, ob diese für eure Anwendungsfall geeignet sind.
Sobald ihr mit einer Reihe von Konfigurationen zufrieden seid, könnet ihr eine Version der Leitplanke fertig stellen und sie mit unterstützten Fundamentmodellen einsetzen.
Ihr könnt Guardrails während des Aufrufs der Inferenz-API direkt auf FMs anwenden, indem ihr die Guardrail-ID und Version angebt. Wenn dann eine Leitplanke verwendet wird, werden die Eingabeaufforderungen und die FM-Vervollständigungen anhand der festgelegten Richtlinien bewertet.
Ein wichtiger Punkt ist zu beachten:
Bevor ihr mit eurer Bedrock-Implementierung in Produktion geht, müsset ihr diese Leitplanken gründlich testen. Zum Beispiel unterstützen die Leitplanken derzeit nur Englisch. Möglicherweise müsst ihr die Leitplankenkonfigurationen testen und feinabstimmen oder andere Mittel zur Validierung von Antworten ausprobieren, bevor diese auf dem Bildschirm des Endbenutzers erscheinen.
Wie man die Bedrock API verwendet
Es gibt zwei Möglichkeiten, die Bedrock-API zu verwenden:
- Mit der AWS-Befehlszeilenschnittstelle (AWS CLI).
- Mit den AWS SDKs.
Lasst uns kurz einen Blick auf beide werfen.
Verwendung der AWS CLI
Zunächst müsst ihr die Anmeldeinformationen konfigurieren. So geht's.
Sobald eure Anmeldeinformationen eingerichtet sind, könnt ihr über die Befehlszeile auf die Bedrock-Vorgänge zugreifen.
- Um alle verfügbaren Befehle zu sehen, verwendet: "aws bedrock help"
- Um alle verfügbaren Modelle aufzulisten, verwendet: "aws bedrock list-foundation-models --profile YOUR-PROFILE-NAME"
Ein Beispiel für die Verwendung von AWS CLI
Zum Zeitpunkt der Erstellung dieses Artikels hat Anthropic gerade die neueste Version des Modells Claude 3.5 veröffentlicht, die wir in unserem Beispiel verwenden wollen. Und da gerade die UEFA-Europameisterschaft 2024 stattfindet, machen wir uns einen Spaß daraus und fragen Claude 3.5, welches Land der Favorit für den Turniersieg ist.
aws bedrock-runtime converse \
--model-id anthropic.claude-3-5-sonnet-20240620-v1:0 \
--messages '{"role": "user", "content": [{"text": "Welche Länder sind aufgrund von historischen Daten und Erfolgen bei großen Turnieren die Top-3-Favoriten auf den Gewinn der Fußball-Europameisterschaft 2024?"}]}' \
--region us-east-1 \
--query output.message.content \
--profile IHR-PROFIL-NAME
Antwort:
[
{
"text": "Basierend auf historischen Daten, jüngsten Leistungen und Erfolgen bei großen Turnieren sind die drei Top-Favoriten auf den Sieg bei der Euro 2024 wahrscheinlich:\n\n1. Frankreich: Als aktueller Vizeweltmeister (2022) und Euro-2020-Achtelfinalteilnehmer (2021) war Frankreich stets eine der stärksten Mannschaften im internationalen Fußball. Sie haben die Weltmeisterschaft 2018 gewonnen und verfügen über einen großen Pool an Talenten.\n\n2. England: Als Finalist der Euro 2020 und Halbfinalist der Weltmeisterschaft 2018 hat sich England in den letzten Jahren deutlich verbessert. Sie haben einen jungen, talentierten Kader und haben bei großen Turnieren gute Leistungen gezeigt.\n\n3. Deutschland: Obwohl sie bei den letzten Turnieren einige enttäuschende Leistungen gezeigt haben, ist Deutschland immer ein starker Anwärter, vor allem wenn es zu Hause spielt. Die Euro 2024 wird in Deutschland ausgetragen, was ihnen einen Vorteil verschaffen könnte. Deutschland hat eine lange Erfolgsgeschichte bei großen Turnieren und ist dafür bekannt, dass es bei wichtigen Wettbewerben gut abschneidet. Zu den weiteren starken Anwärtern könnten auch Spanien, Italien, Belgien und Portugal gehören. Allerdings können sich die tatsächlichen Favoriten je nach den Leistungen der Mannschaften, Verletzungen und anderen Faktoren kurz vor dem Turnier noch ändern."
}
]
Also... ich denke, Glückwunsch, Deutschland!
Verwendung des AWS SDK
Als nächstes wollen wir einen kurzen Beispielcode verwenden, der mit dem AWS SDK für Python (Boto3) erstellt wurde. (Ich empfehle die Verwendung von venv, um euer System in Ordnung zu halten.)
Ein Beispiel für die Verwendung von AWS SDK
In diesem Beispiel möchte ich das folgende Diagramm über den Gesamtenergieverbrauch und die Kohlendioxidemissionen in Finnland im Zeitraum 1990-2020 analysieren.
Code:
import boto3
from botocore.exceptions import ClientError
MODEL_ID = "anthropic.claude-3-5-sonnet-20240620-v1:0" #Hinweis: die genaue Modell-ID und die verfügbaren Regionen ändern sich im Laufe der Zeit
IMAGE_NAME = "energie_FI.png"
profile_name = "YOUR-PROFILE-NAME" # Fügen Sie diese Zeile hinzu, um die Variable profile_name zu definieren
if profil_name:
session = boto3.Session(profile_name=profile_name)
bedrock_runtime = session.client('bedrock-runtime', region_name="us-east-1")
sonst:
bedrock_runtime = boto3.client('bedrock-runtime', region_name="us-east-1")
with open(IMAGE_NAME, "rb") as f:
image = f.read()
user_message = "Analysieren Sie dieses Bild und erklären Sie, was wann und warum passiert? Denke Schritt für Schritt und erkläre Trends und Ereignisse, die Veränderungen im Diagramm erklären. Output in JSON."
messages = [
{
"role": "user",
"content": [
{"image": {"format": "png", "Quelle": {"bytes": "image"}},
{"text": user_message},
],
}
]
response = bedrock_runtime.converse(
modelId=MODEL_ID,
messages=Nachrichten,
)
response_text = response["output"]["message"]["content"][0]["text"]
print(antwort_text)
Antwort:
{
"Analyse": {
"type_of_graph": "Gestapeltes Balkendiagramm mit einem überlagerten Liniendiagramm",
"time_period": "1990 bis 2020",
"main_metrics": [
"Energiequellen (TJ)",
"Kohlendioxid-Emissionen (milj. t CO2)"
],
"energie_quellen": [
"Fossiliset (Fossile Brennstoffe)",
"Turve (Torf)",
"Uusiutuvat (Erneuerbare Energien)",
"Ydinenergia (Kernenergie)",
"Muut (Andere)"
],
"Trends": [
{
"trend": "Sinkende Nutzung fossiler Brennstoffe",
"description": "Der blaue Balken, der fossile Brennstoffe darstellt, zeigt einen allgemeinen Rückgang, der ab 2010 besonders ausgeprägt ist.",
"possible_reason": "Verstärkte Konzentration auf die Reduzierung von Kohlenstoffemissionen und den Übergang zu saubereren Energiequellen".
},
{
"trend": "Zunehmende Nutzung erneuerbarer Energien",
"description": "Der hellblaue Balken für erneuerbare Energien zeigt ein stetiges Wachstum während des gesamten Zeitraums.",
"possible_reason": "Regierungspolitik zur Förderung erneuerbarer Energien, technologischer Fortschritt und wachsendes Umweltbewusstsein."
},
{
"trend": "Schwankende Nutzung der Kernenergie",
"description": "Der rosafarbene Balken für die Kernenergie zeigt einige Schwankungen, bleibt aber ein bedeutender Teil des Energiemixes.",
"possible_reason": "Änderungen in der Nuklearpolitik, im Betrieb der Anlagen oder in der öffentlichen Stimmung gegenüber der Kernenergie".
},
{
"trend": "Sinkende CO2-Emissionen",
"description": "Die schwarze Linie, die die CO2-Emissionen darstellt, zeigt einen Höchststand um 2003-2004 und dann einen stetigen Rückgang.",
"possible_reason": "Umstellung auf sauberere Energiequellen, verbesserte Energieeffizienz und Umsetzung der Klimapolitik".
}
],
"notable_events": [
{
"Zeitraum": "Anfang der 2000er Jahre",
"event": "Spitzenwert beim Gesamtenergieverbrauch und den CO2-Emissionen",
"possible_explanation": "Wirtschaftswachstum, das zu einer erhöhten Energienachfrage führte, bevor Effizienzmaßnahmen und sauberere Technologien auf breiter Basis eingeführt wurden."
},
{
"period": "ab 2010",
"event": "Beschleunigter Rückgang der Nutzung fossiler Brennstoffe und der CO2-Emissionen",
"possible_explanation": "Strengere Umweltvorschriften, Pariser Abkommen (2015) und schnellere Einführung von Technologien für erneuerbare Energien."
}
],
"overall_conclusion": "Die Grafik zeigt einen klaren Übergang im finnischen Energiemix von 1990 bis 2020, mit einer Verlagerung weg von fossilen Brennstoffen hin zu erneuerbaren Energiequellen, was zu einer signifikanten Reduzierung der CO2-Emissionen führt, insbesondere im letzten Teil des Zeitraums."
}
}
Wie das Bedrock-Preismodell funktioniert
Die Kosten für die Nutzung von Bedrock beruhen auf der Modellinferenz und der Anpassung. Kurz gesagt, die Nutzung der API verursacht Kosten, die pro Token berechnet werden, und der Preis variiert je nach Modell. Sowohl Input als auch Output werden pro Token berechnet.
Bei den Preisplänen habt ihr zwei Möglichkeiten: On-demand und provisionierter Durchsatz.
Abrufbar
Ich empfehle euch dringend, On-Demand-Preise zu verwenden, bis ihr ein klares Bild von eurer Nutzung habt. Dies ist eine gute Option für Tests, Abstimmungen und POC-Einrichtungen.
Bereitgestellter Durchsatz
Zieht diesen Preisplan in Betracht, wenn ihr einen überzeugenden Business Case habt und wisst, dass der bereitgestellte Durchsatz eine finanziell tragfähige Option ist. Verwendet diese Option nur, wenn eine konstante und hohe Nachfrage besteht, da sie recht teuer ist.
Weitere bemerkenswerte Preisfaktoren sind die Wissensdatenbanken und Leitplanken. Leider verfügt AWS noch nicht über einen offiziellen, benutzerfreundlichen Preisrechner, aber ihr könnt mehr darüber auf der AWS Bedrock-Preisseite lesen.
Abschließende Worte
Geht mutig dorthin, wo euer Unternehmen noch nicht war, aber denkt daran, Kostenwarnungen zu setzen.
Ich empfehle, sich bei der AWS-Konsole anzumelden und sich im Bedrock-Spielplatzbereich zurechtzufinden.
- Testet verschiedene Modelle auf dem Playground.
- Testet die Leistung und den Nutzen der Wissensbasis mit euren nicht kategorisierten Daten.
- Denkt über konkrete Leitplanken und Kombinationen nach und testet diese, um sichere Antworten zu erhalten.
- Macht euch die Hände schmutzig und experimentiert mit AWS CLI und SDKs.
Bedenkt dabei jedoch, dass in Cloud-Umgebungen in den meisten Fällen für alles zumindest geringe Kosten anfallen. Wenn die Kosten nicht auf organisatorischer Ebene gehandhabt werden, solltet ihr also daran denken, eure eigenen Abrechnungsalarme zu setzen. So geht's.
Versucht, neue und konkrete Lösungen zu finden
Jetzt, wo die "neue Ära der Datenverarbeitung" angebrochen ist, solltet ihr versuchen, die bestehenden Herausforderungen aus einem anderen Blickwinkel zu betrachten. Haltet während eures normalen Arbeitstages Augen und Ohren offen für Möglichkeiten, wie KI-Lösungen zur Lösung von Alltagsproblemen eingesetzt werden könnten.
Geht auch euren Ideenbestand oder kürzlich verworfene Ideen durch, denn es könnte durchaus eine KI-gestützte Lösung geben, um sie jetzt zu verwirklichen.
Bonustipp: Verwendet Bedrock Studio
Amazon Bedrock Studio ist eine kürzlich veröffentlichte Vorschaufunktion von Bedrock. Es erleichtert die Erstellung von Anwendungen, ohne dass eine separate Entwicklerumgebung erforderlich ist. Betrachtet es als eine benutzerfreundliche Weboberfläche, auf der ihr mit verschiedenen Modellen und Funktionen experimentieren könnt. Zum Beispiel könnt ihr verschiedene Prompts mit dem Anthropic Claude Modell ausprobieren, ohne Code zu schreiben.
Mit Bedrock Studio könnt ihr auch ganz einfach Funktionen wie Wissensdatenbanken (für kontextbezogene Antworten), Leitplanken (für verantwortungsbewusste KI) und Funktionsaufrufe (für den Zugriff auf bestimmte Funktionen) hinzufügen – und das alles, ohne Programmierkenntnisse.
Veröffentlicht:
Aktualisiert: