EinfΓΌhrung Neuronale Netze / Wordembedding / Attention

Dr. rer. nat. Sebastian Bader

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader

Fragen auf die ich heute eingehen mΓΆchte

  • 🧠 Neuronale Netze (10 Minuten)
    • Woraus bestehen neuronale Netze?
    • Welche Arten von neuronalen Netzen gibt es?
  • πŸ“ Wordembeddings (10 Minuten)
    • Wie kΓΆnnen WΓΆrter als Vektoren reprΓ€sentiert werden?
    • Was kΓΆnnen wir mit diesen Vektoren tun?
  • πŸ‘οΈ Attention-Mechanismus (5 Minuten)
    • Wie kΓΆnnen wir die Wichtigkeit zwischen WΓΆrtern lernen?
  • 🧩 Sentence Embeddings (5 Minuten)
    • Wie kΓΆnnen wir komplexere Dinge als Vektoren reprΓ€sentieren?
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Agenda

  • 🧠 Neuronale Netze

  • πŸ“ Wordembeddings
  • πŸ‘οΈ Attention-Mechanismus
  • 🧩 Sentence Embeddings
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze
  • Zeichnung des visuellen Systems eines Sperlings
    Santiago RamΓ³n y Cajal (1852-1934)

  • Eine kurze Geschichte

    • 350 v.Chr.: Das Gehirn ist dazu da das Blut zu kΓΌhlen (Aristoteles)
    • 1543: Grobe Struktur des Gehirns bekannt (Vesalius)
    • 1873: Detaillierte Beschreibung eines einzelnen Neurons (Golgi)
    • 1905: Beschreibung unterschiedlicher Verbindungsstrukturen
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Woraus bestehen neuronale Netze?

Schematische Darstellung von Nervenzelle und Synapse

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Mathematische Darstellung

  • Neuronen akkumulieren Eingaben oder Signale anderer Neuronen
  • SynapsenstΓ€rke wird als Gewicht zwischen den Neuronen und Bias dargestellt
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Training neuronaler Netze

  • Eingaben werden durch das Netz verarbeitet
  • Der Unterschied zwischen den aktuellen Ausgaben und dem Ziel wird genutzt um Gewichte zu adaptieren
  • Nach erfolgreichem Training kann das Netz neue Eingaben auf korrekte Ausgaben abbilden
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Neuronale Netze: Feed-Forward & Convolutional

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧠 Neuronale Netze

Welche Arten von neuronalen Netzen gibt es?

  • Unterschiedliche Netzwerke unterscheiden sich bzgl. ihrer Architektur
    (Anzahl Neuronen & Verbindungsstruktur)
  • Einzelne Beispiele

    • Mehrschichtige vorwΓ€rtsgerichtete Netze
    • Recurrent Neural Networks
    • Convolutional Neural Networks
    • Autoencoder
    • ...
  • Unterschiedliche Netze werden auf ganz unterschiedliche Weise trainiert

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Agenda

  • 🧠 Neuronale Netze
  • πŸ“ Wordembeddings

  • πŸ‘οΈ Attention-Mechanismus
  • 🧩 Sentence Embeddings
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Wie kΓΆnnen WΓΆrter als Vektoren reprΓ€sentiert werden?

  • Bilde jedes Wort auf eine Zahl ab
  • Dadurch werden Γ„hnlichkeiten zwischen WΓΆrtern suggeriert, die nicht stimmen!
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Wie kΓΆnnen WΓΆrter als Vektoren reprΓ€sentiert werden?

  • Bilde jedes Wort auf einen hochdimensionalen Vektor mit nur einer "1" ab
  • Bei 300.000 deutschen WΓΆrtern ergeben 300.000-dimensionale Vektoren!
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Wie kΓΆnnen WΓΆrter als Vektoren reprΓ€sentiert werden?

  • Bilde jedes Wort auf einen niedrigdimensionalen Vektor ab
  • Woher kommen diese Vektoren? KΓΆnnen wir sie lernen?
  • KΓΆnnen wir Vektoren so erzeugen, dass sie Γ„hnlichkeiten zwischen WΓΆrtern kodieren?
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Lernen von Wordembeddings

  • β€žYou shall know a word by the company it keepsβ€œ (John Rupert Firth, 1957)
  • Fensterung und Erlernen des Zusammenhang zwischen Wort und Kontext
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Wordembeddings

  • WikipediawΓΆrter
  • Wo gehΓΆrt die Melone πŸ‰ hin?
    quadrantChart "πŸ›΅": [0.4, 0.7] "πŸš™": [0.3, 0.9] "πŸšƒ": [0.2, 0.8] "🦜": [0.8, 0.9] "🦀": [0.6, 0.8] "πŸ“": [0.7, 0.7] "🍎": [0.3, 0.2] "🍐": [0.2, 0.4] "🍌": [0.4, 0.3] "πŸ€": [0.75, 0.4] "⚾️": [0.64, 0.3] "🎾": [0.72, 0.2]
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings


Vektormathematik

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings


Vektormathematik

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ“ Wordembeddings

Analogien mit Embeddings

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ‘οΈ Attention-Mechanismus

Agenda

  • 🧠 Neuronale Netze
  • πŸ“ Wordembeddings
  • πŸ‘οΈ Attention-Mechanismus

  • 🧩 Sentence Embeddings
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ‘οΈ Attention-Mechanismus

Attention is all you need

Artikel von der NeurIPS 2017
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ‘οΈ Attention-Mechanismus

Intuition

Deep Learning with Python
(FranΓ§ois Chollet, Manning 2021)
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
πŸ‘οΈ Attention-Mechanismus

Intuition

Deep Learning with Python
(FranΓ§ois Chollet, Manning 2021)
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧩 Sentence Embeddings

Agenda

  • 🧠 Neuronale Netze
  • πŸ“ Wordembeddings
  • πŸ‘οΈ Attention-Mechanismus
  • 🧩 Sentence Embeddings

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧩 Sentence Embeddings

Sentence Transformer

BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader
🧩 Sentence Embeddings

Semantische Suche

  • Einbettung von 25.000 Artikeln der engl. Wikipedia
  • Einbettung einer Suchanfrage
  • Identifikation der Γ€hnlichsten 5 Artikel bzgl. der Anfrage
    = Cosinus zwischen Vektoren
BIG Data - LLMs | 5.9.'24 | Dr. rer. nat. S. Bader

![](Gantt.png)