W najnowszym wpisie na blogu RTX AI Garage NVIDIA przedstawiła przykłady rzeczywistych przepływów pracy z użyciem modeli takich jak Gemma 12B, Code Llama oraz StarCoder2, uruchamianych lokalnie przez Continue.dev, Ollama oraz LM Studio.
Wyjaśniono, dlaczego akceleracja układu graficznego ma kluczowe znaczenie, szczególnie dla programistów pracujących nad dużymi projektami, długimi promptami lub wymagających szybkiej pętli informacji zwrotnej. Zaprezentowano również narzędzia, które czynią lokalne narzędzia do kodowania AI praktycznymi, takie jak Continue.dev, Tabby, OpenInterpreter czy LM Studio.
Asystenci kodowania AI to narzędzia, które pomagają zarówno doświadczonym twórcom oprogramowania, jak i osobom stawiającym pierwsze kroki w uproszczeniu zadań takich jak pisanie, debugowanie oraz wyjaśnianie kodu. Jedną z kluczowych korzyści wynikających z uruchamiania tych narzędzi lokalnie, na własnym komputerze, jest nielimitowane użytkowanie, dzięki czemu można uniknąć opłat subskrypcyjnych i ograniczeń typowych dla usług chmurowych. Dzięki połączeniu asystentów AI z kartami graficznymi GeForce RTX, asystenci działają znacznie szybciej, zapewniając nawet sześciokrotnie większą płynność na modelach takich jak Meta Llama 3.1-8B, w porównaniu do działania na procesorze CPU. Taka przewaga pozwala lokalnym narzędziom, takim jak Continue.dev, Tabby czy OpenInterpreter, dorównać, a często nawet przewyższyć rozwiązania chmurowe, bez konieczności przesyłania kodu źródłowego na zewnętrzne serwery.
Narzędzia ułatwiające lokalne uruchamianie asystentów kodowania:
NVIDIA przypomina także o wydarzeniu Plug and Play: Project G-Assist Hackathon, które zorganizowane jest w formule online i potrwa do 16 lipca. Zadaniem uczestników jest stworzenie i udostępnienie własnych wtyczek do wirtualnego asystenta. Wtyczki można tworzyć w środowisku Python lub C++ albo za pomocą narzędzia G-Assist Plug-In Builder, bazującego na ChatGPT i umożliwiającego generowanie kodu z poziomu języka naturalnego.