Run your AI LangChain on AWS

15. Juli 2023

Der LLM Hype scheint unaufhaltbar. Es ist faszinierend was mittlerweile mit LLMs möglich ist! LLMs sind aber dennoch gewissen Grenzen aufgesetzt. Mit der LangChain lassen sich die Grenzen verschieben und die Nützlichkeit der LLMs werden erhöht. In diesem Post möchte ich euch erklären was die LangChain ist und welche coolen Features es ermöglichen mehr aus LLMs rauszuholen.

  • Die LangChain Library verspricht eine nützliche Abstraktion zu sein um die Möglichkeiten der vorhandenen LLMs zu erweitern.
  • Es hat coole Features wie Chains, Memory, Agents und Vector Machines
  • Auch lassen sich die LLMs beliebig austauschen und ermöglicht somit eine höhere Unabhängigkeit zu Platzhirschen wie OpenAI

LangChain

Die LangChain ist eine SDK Library um die Erstellung von LLM Applikationen zu vereinfachen. Die Library bietet dabei eine Möglichkeit mit LLMs programmatisch zu kommunizieren.

Das SDK unterstützt Python und JavaScript/TypeScript als Programmiersprachen. Die Nützlichkeit der Library wird massgeblich durch die folgenden Features bestimmt.

Sequence Chains

So können z.B. einzelne LLM calls miteinander verschachtelt werden.

Memory

Persisting state (like conversations) between calls of a chain/agent

Agents

Involve an LLM making decisions about which Actions to take

Vector Machines

“Train” the LangChain LLM with your specific data

Kritik

  • LangChain Library ist noch sehr am Anfang. Du wirst also in Probleme stossen. Perfekte Gelegenheit zu kontributieren.

...

Zusammenfassung

In one of my next posts, I give you deeper insight into the T3 Stack like how it works. I also show you how to use it to develop a Prototype or MVP.

A huge thanks to the T3 Stack community for their hard work and support. And a special thanks to Theo for creating this amazing stack and thriving it. I love your content on YouTube. Keep up the amazing work!

I hope you enjoyed this post and I look forward to seeing you in the next one.

I love to work on Open Source projects. A lot of my stuff you can already use on https://github.com/mmuller88 . If you like my work there and my blog posts, please consider supporting me on the:

Buy me a Ko-Fi

OR

Buy me a Ko-Fi

And don't forget to visit my site

martinmueller.dev

Share