# Leitfaden zum Prompt-Engineering

Das Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Prompts beschäftigt, um Sprachmodelle (LMs) effizient für eine Vielzahl von Anwendungen und Forschungsthemen zu nutzen. Kenntnisse im Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von großen Sprachmodellen (LLMs) besser zu verstehen.

Forscher nutzen das Prompt-Engineering, um die Leistungsfähigkeit von LLMs bei einer breiten Palette von allgemeinen und komplexen Aufgaben wie Fragebeantwortung und arithmetisches Denken zu verbessern. Entwickler verwenden das Prompt-Engineering, um robuste und effektive Prompt-Techniken zu entwerfen, die mit LLMs und anderen Werkzeugen interagieren.

Das Prompt-Engineering dreht sich nicht nur um das Entwerfen und Entwickeln von Prompts. Es umfasst ein breites Spektrum an Fähigkeiten und Techniken, die für die Interaktion und Entwicklung mit LLMs nützlich sind. Es ist eine wichtige Fähigkeit, mit LLMs zu interagieren, sie zu bauen und ihre Fähigkeiten zu verstehen. Sie können das Prompt-Engineering nutzen, um die Sicherheit von LLMs zu erhöhen und neue Fähigkeiten zu entwickeln, wie zum Beispiel die Erweiterung von LLMs mit Fachwissen und externen Werkzeugen.

Angeregt durch das hohe Interesse an der Entwicklung mit LLMs, haben wir diesen neuen Leitfaden zum Prompt-Engineering erstellt, der alle neuesten Papers, fortgeschrittene Prompt-Techniken, Lernanleitungen, modellspezifische Anleitungen zum Prompting, Vorlesungen, Referenzen, neue Fähigkeiten von LLMs und Werkzeuge im Zusammenhang mit Prompt-Engineering enthält.

---

Aufgrund der hohen Nachfrage haben wir uns mit Maven zusammengetan, um einen neuen [kohortenbasierten Kurs über Prompt-Engineering für LLMs](https://maven.com/dair-ai/prompt-engineering-llms) anzubieten.

[Elvis Saravia](https://www.linkedin.com/in/omarsar/), der bei Unternehmen wie Meta AI und Elastic gearbeitet hat und jahrelange Erfahrung in KI und LLMs mitbringt, wird der Dozent für diesen Kurs sein.

Dieser praxisorientierte Kurs befasst sich mit Techniken/Werkzeugen des Prompt-Engineerings, Anwendungsfällen, Übungen und Projekten, um effektiv mit großen Sprachmodellen (LLMs) zu arbeiten und sie zu entwickeln.

Unsere bisherigen Lernenden reichen von Software-Ingenieuren bis zu KI-Forschern und Praktikern in Organisationen wie Microsoft, Google, Apple, Airbnb, LinkedIn, Amazon, JPMorgan Chase & Co., Asana, Intuit, Fidelity Investments, Coinbase, Guru, und vielen anderen.
