🚨 $GOOGL właśnie przedstawił nową technologię o nazwie TurboQuant
🟢 Czym to właściwie jest?
TurboQuant to językowy model LLM od Google, który ma rozwiązać problem techniczny: ogromnych wymagań dotyczących pamięci i szybkości.
Kiedy komunikujesz się z AI (np. przez ChatGPT lub Gemini), model musi "pamiętać" kontekst całej rozmowy. Ta "pamięć" jest zapisywana w tzw. KV Cache.
🛑 Ale tu jest problem: Ta pamięć zajmuje ogromne ilości miejsca. Im dłuższa rozmowa (dłuższy kontekst), tym więcej pamięci (VRAM) potrzebuje karta graficzna.

🟢 Jak to działa?
Wyobraź sobie to jak skompresowanie danych rozmowy tak inteligentnie, że model nadal może z nimi pracować, mimo że zajmują ułamek miejsca.
👉 6x mniej pamięci: To oznacza, że tam, gdzie wcześniej potrzebowałeś 60 GB pamięci, teraz wystarczy 10 GB.
👉 8x większa szybkość: Ponieważ dane są mniejsze, układ jest w stanie je dużo szybciej przetwarzać. Czyli natychmiastowa odpowiedź od AI.
🟢 W czym jeszcze może nam pomóc TurboQuant od Google?
• AI bezpośrednio na telefonie: Dzięki temu wkrótce zobaczysz zaawansowane modele działające bezpośrednio na twoim telefonie bez potrzeby internetu (Local AI Inference).
• Ogromny kontekst: Będziesz mógł załadować całą książkę lub tysiące linii kodu, a AI "zapamięta" je bez wyczerpania pamięci.
• Tańsze działanie: Dla firm takich jak Google oznacza to, że eksploatacja AI będzie znacznie tańsza, co może prowadzić do lepszych darmowych wersji dla użytkowników.
🚨 Sektor firm produkujących pamięć jest dziś pod presją.
Bulios Black
Ten użytkownik ma dostęp do ekskluzywnych treści, narzędzi i funkcji platformy Bulios dzięki swojej subskrypcji.
Dla Microna to nie jest jakaś ogromna konkurencja ani duże ryzyko, ale oczywiście może to nieco wstrząsnąć sektorem i być może coś zmieni.
Bulios Black
Ten użytkownik ma dostęp do ekskluzywnych treści, narzędzi i funkcji platformy Bulios dzięki swojej subskrypcji.
$GOOG to moja druga co do wielkości pozycja i cieszę się, że Google jako pierwszy to wprowadził. Zaoszczędzi im to mnóstwo pieniędzy i czasu.
W kontekście tego był na Yahoo artykuł o tym, jak to wpłynie na Micron, tamtunk i Hynix, co w końcu nie będzie miało znaczenia, bo pamięci potrzeba milion razy więcej niż są realne dostawy.
Myślę o ponownym wejściu na poziomie 340-360; jest tam też mała luka do wypełnienia i potencjalnie dobra szansa na odbicie 😉
To bardzo ciekawa informacja. Postępu nie zatrzymasz. Google nr 1.