#032 Kontextlänge vs Kontextsuche

Was ist sinnvoller: Eine große Kontextlänge von 100.000 Tokens bei Claude2 oder eine detaillierte Suche in einer Vektordatenbank durchzuführen und die Ergebnisse mittels Embeddings in die Promptabfrage zu integrieren?

#032 Kontextlänge vs Kontextsuche

Was ist sinnvoller? Eine große Kontextlänge wie z.B. 100.000 Tokens bei Claude2 oder eine detaillierte Suche mittels einer Vektordatenbank durchzuführen und die gefundenen Ergebnisse aus der Vektordatenbank mittels Embeddings in die Promptabfrage zu integrieren?

In dem folgenden spannenden Blogbeitrag von Pinecone wird untersucht, ob es sinnvoller ist, einen langen Kontext zu verwenden oder die Ergebnisse einer Suche in der Vektordatenbank zu nutzen, um bessere Ergebnisse zu erzielen. Pinecone ist zwar Hersteller/Betreiber einer Vektordatenbank, dennoch sind die Ergebnisse unserer Meinung nach relevant und nicht nur reines Marketing, da sie durch Studien belegt wurden.

Less is More: Why Use Retrieval Instead of Larger Context Windows | Pinecone
The idea of a large context window seems appealing at first — just give the model all your data and let it figure it out. However, Research shows that LLMs provide the best results when given fewer, more relevant documents in the context, rather than large numbers of unfiltered documents.

Das Einfügen des gesamten Kontextes in das Prompt bezeichnen die Autoren als "Context-Stuffing", das zu folgenden Ergebnissen führen kann:

  • Die Qualität der Antworten nimmt ab.
  • Das Risiko von Halluzinationen steigt.
  • Die Kosten steigen linear mit größeren Kontexten.

Als Ergebnis sieht der Artikel: LLMs liefern bessere Ergebnisse, wenn ihnen weniger, aber relevantere Dokumente im Kontext gegeben werden, anstatt großer Mengen ungefilterter Dokumente.

Source: “Lost in the Middle: How Language Models Use Long Contexts”, F. Liu et al. 2023