AI Toolkit for Visual Studio Code – Nowoczesne narzędzie do tworzenia aplikacji AI

implementacje

AI Toolkit for Visual Studio Code

W dobie dynamicznego rozwoju sztucznej inteligencji, programiści potrzebują coraz bardziej zaawansowanych narzędzi wspierających tworzenie aplikacji AI. Microsoft odpowiada na te potrzeby wprowadzając AI Toolkit for Visual Studio Code.

Czym jest AI Toolkit?

AI Toolkit for Visual Studio Code to kompleksowe rozszerzenie zaprojektowane z myślą o programistach i inżynierach AI, którzy chcą efektywnie tworzyć aplikacje wykorzystujące sztuczną inteligencję. Narzędzie umożliwia łatwe budowanie aplikacji i agentów AI poprzez rozwój i testowanie modeli generatywnych zarówno lokalnie, jak i w chmurze. Warto podkreślić, że rozszerzenie wspiera większość popularnych modeli genAI dostępnych obecnie na rynku, co daje programistom niespotykaną dotąd elastyczność.

Rozszerzenie to stanowi część ekosystemu narzędzi Microsoft dla deweloperów AI, uzupełniając wprowadzone wcześniej Windows AI Studio – platformę ułatwiającą lokalny rozwój i wdrażanie AI w systemie Windows. Dzięki prostemu interfejsowi użytkownika, programiści mogą z łatwością odkrywać i testować popularne modele AI bez konieczności zagłębiania się w skomplikowane konfiguracje.

Kluczowe funkcjonalności

AI Toolkit oferuje szereg zaawansowanych funkcji, które przyspieszają proces tworzenia rozwiązań opartych na sztucznej inteligencji. Rozszerzenie pozwala na pobieranie, testowanie, dostrajanie i wdrażanie modeli AI bezpośrednio z poziomu edytora VS Code. Do najważniejszych możliwości należą:

  • Interaktywny playground wspierający załączniki, wyszukiwanie w sieci i tryb myślenia, co umożliwia bardziej interaktywne eksperymentowanie z modelami
  • Możliwość uruchamiania wielu promptów w trybie wsadowym, co zwiększa efektywność testowania
  • Ewaluacja promptów w zestawie danych przy użyciu popularnych ewaluatorów
  • Dostrajanie (fine-tuning) i wdrażanie modeli AI bezpośrednio z interfejsu VS Code.

Praktyczne zastosowania

AI Toolkit znacząco upraszcza pracę programistów AI poprzez integrację całego cyklu rozwoju w jednym środowisku. W praktyce oznacza to, że deweloperzy mogą skupić się na tworzeniu wartościowych rozwiązań AI zamiast tracić czas na konfigurację i integrację różnych narzędzi. Rozszerzenie szczególnie dobrze sprawdza się w scenariuszach:

  • Tworzenia aplikacji wykorzystujących małe modele językowe (SLM) działające lokalnie
  • Testowania i porównywania różnych modeli AI pod kątem konkretnych zastosowań
  • Wdrażania hybrydowych rozwiązań AI wykorzystujących moc obliczeniową zarówno lokalną, jak i chmurową.

Jak zainstalować?

By zainstalować i przetestować modele należy zakładce Extensions wyszukać AI Toolkit for Visual Studio Code.

Wyszukiwanie wtyczki.

Jakie modele są dostępne?

W wtyczce są do wyboru modele uruchamiane lokalnie przez ollamę oraz ONNX, ale też hostowane przez GitHub jak i te hostowane przez Anthropic, OpenAI i Google.

Źródło/modelPrzykładowe modeleTyp modeluTryb działaniaWymagania/licencja
GitHub-hostedLlama3, Phi-3, MistralSLM, LLMLokalnie/chmuraKonto GitHub, open source
OpenAIChatGPT (GPT-3.5, GPT-4)LLMChmuraKlucz API OpenAI
AnthropicClaude (Claude 2, Claude 3)LLMChmuraKlucz API Anthropic
GoogleGeminiLLMChmuraKlucz API Google
MicrosoftPhi-3, Phi-3.5SLMLokalnie/chmuraZależnie od modelu
MetaLlama (Llama2, Llama3)LLMLokalnie/chmuraZależnie od modelu
Mistral AIMistral, MixtralSLM, LLMLokalnie/chmuraZależnie od modelu
Hugging FaceDowolne modele z katalogu HFSLM, LLMLokalnie/chmuraKonto HF, open source
OllamaLlama2, Llama3, Mistral, Phi-3SLM, LLMLokalnie (CPU/GPU/NPU)Zainstalowany Ollama
Bring Your Own ModelDeepSeek R1, inne własne modeleSLM, LLMLokalnie/chmuraWłasna konfiguracja

Źródła

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry
Hej. Nie zapomnij podzielić się opinią oraz udostępnić dalej.