Artwork

A tartalmat a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

095 | LLMs lokal ausführen: Erste Erfahrungen & praktische Tipps

53:48
 
Megosztás
 

Manage episode 464470864 series 3432291
A tartalmat a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

Große Sprachmodelle (LLMs) lokal ausführen – das klingt erstmal nach einer Menge technischer Hürden. Aber wie schwer ist es wirklich? In dieser Folge teilt Thomas seine ersten Erfahrungen mit lokalen LLMs, was gut lief, wo es gehakt hat und welche Learnings er dabei mitgenommen hat.

Wir sind keine LLM-Profis, aber mit ein bisschen Experimentierfreude kann man schnell ein besseres Verständnis für die Möglichkeiten und Grenzen dieser Modelle entwickeln. Warum sollte man LLMs überhaupt lokal laufen lassen? Welche Vorteile bringt das – und wo liegen die Hürden? Thomas gibt außerdem ein paar praktische Tipps, um den Einstieg so einfach wie möglich zu gestalten.

Perfekt für alle, die sich in das Thema einarbeiten wollen, ohne gleich ein Rechenzentrum im Keller zu brauchen!

Community:

💜 Werde Teil der IOOB Discord Community:

https://discord.gg/bbC5c4vvQY

Links:

MIT Playlist (LLMs & AI):

https://www.youtube.com/watch?v=ErnWZxJovaM&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI&index=2

Langchain – Framework für LLMs:

https://www.langchain.com/

Ollama – Lokale LLMs leicht gemacht:

https://ollama.com/

Llama – Open-Source LLMs von Meta:

https://www.llama.com/

Deepseek R1 auf dem Raspberry Pi:

https://www.youtube.com/watch?v=o1sN1lB76EA

Kontakt:

👉 https://ioob.de

📬 [email protected]

𝕏 https://x.com/IoobPodcast

📺 https://youtube.com/@ioobpodcast

  continue reading

113 epizódok

Artwork
iconMegosztás
 
Manage episode 464470864 series 3432291
A tartalmat a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Christian Braun und Thomas Diroll, Christian Braun, and Thomas Diroll vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

Große Sprachmodelle (LLMs) lokal ausführen – das klingt erstmal nach einer Menge technischer Hürden. Aber wie schwer ist es wirklich? In dieser Folge teilt Thomas seine ersten Erfahrungen mit lokalen LLMs, was gut lief, wo es gehakt hat und welche Learnings er dabei mitgenommen hat.

Wir sind keine LLM-Profis, aber mit ein bisschen Experimentierfreude kann man schnell ein besseres Verständnis für die Möglichkeiten und Grenzen dieser Modelle entwickeln. Warum sollte man LLMs überhaupt lokal laufen lassen? Welche Vorteile bringt das – und wo liegen die Hürden? Thomas gibt außerdem ein paar praktische Tipps, um den Einstieg so einfach wie möglich zu gestalten.

Perfekt für alle, die sich in das Thema einarbeiten wollen, ohne gleich ein Rechenzentrum im Keller zu brauchen!

Community:

💜 Werde Teil der IOOB Discord Community:

https://discord.gg/bbC5c4vvQY

Links:

MIT Playlist (LLMs & AI):

https://www.youtube.com/watch?v=ErnWZxJovaM&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI&index=2

Langchain – Framework für LLMs:

https://www.langchain.com/

Ollama – Lokale LLMs leicht gemacht:

https://ollama.com/

Llama – Open-Source LLMs von Meta:

https://www.llama.com/

Deepseek R1 auf dem Raspberry Pi:

https://www.youtube.com/watch?v=o1sN1lB76EA

Kontakt:

👉 https://ioob.de

📬 [email protected]

𝕏 https://x.com/IoobPodcast

📺 https://youtube.com/@ioobpodcast

  continue reading

113 epizódok

모든 에피소드

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás