Firma Meta Platforms wypuściła na rynek model sztucznej inteligencji, który będzie pomagał programistom w pisaniu kodu komputerowego.
Code Llama, bo taką nazwę nosić opracowane przez Meta AI, może pisać kod w oparciu o ludzkie podpowiedzi tekstowe, a także może być używana do uzupełniania kodu i debugowania.
Meta stawia na AI
Jak zapewniają przedstawiciele Meta, Code Llama jest najnowocześniejszym publicznie dostępnym modelem LLM do zadań związanych z kodowaniem. Sztuczna inteligencja może być wykorzystywana jako narzędzie zwiększające produktywność oraz narzędzie edukacyjne, które pomaga programistom w pisaniu oprogramowania.
„Wierzymy, że otwarte podejście do sztucznej inteligencji jest najlepsze do opracowywania nowych narzędzi sztucznej inteligencji, które są innowacyjne, bezpieczne i odpowiedzialne. Dlatego udostępniamy Code Llama zarówno do celów badawczych, jak i komercyjnych na tej samej licencji społecznościowej co Llama 2” – czytamy na blogu firmy Meta.
Code Llama to wyspecjalizowana pod kątem kodu wersja Llamy 2, która została stworzona poprzez dalsze szkolenie Llamy 2 na zestawach danych specyficznych dla kodu, próbkując więcej danych z tego samego zestawu danych przez dłuższy czas. AI może generować kod i język naturalny o kodzie, zarówno z kodu, jak i podpowiedzi w języku naturalnym (np. „Napisz mi funkcję, która wyprowadza ciąg Fibonacciego”). Oprogramowanie może być również używane do uzupełniania kodu i debugowania. Obsługuje ono wiele języków programowania, w tym Python, C++, Java, PHP, Typescript (Javascript), C# i Bash.
„Udostępniamy trzy rozmiary Code Llama z parametrami odpowiednio 7B, 13B i 34B. Każdy z tych modeli jest trenowany przy użyciu 500B tokenów kodu i danych związanych z kodem. Modele bazowe i instruktażowe 7B i 13B zostały również przeszkolone w zakresie funkcji FIM (fill-in-the-middle), dzięki czemu mogą wstawiać kod do istniejącego kodu, co oznacza, że mogą obsługiwać zadania takie jak uzupełnianie kodu od razu po wyjęciu z pudełka” – informują deweloperzy.
Zobacz też: Srebro: odbicie już blisko? To może być przełomowa druga połowa roku
Do wyboru, do koloru
Wspomniane modele spełniają różne wymagania w zakresie obsługi i opóźnień. Przykładowo, model 7B może być obsługiwany na jednym układzie GPU. Model 34B zwraca najlepsze wyniki i pozwala na lepszą pomoc w kodowaniu, ale mniejsze modele 7B i 13B są szybsze i bardziej odpowiednie do zadań wymagających niskiego opóźnienia, takich jak uzupełnianie kodu w czasie rzeczywistym.
Może Cię zainteresować: