Powstanie pierwszy polski otwarty wielki model językowy – PLLuM

Polski wielki model językowy PLLuM, wytrenowany na treściach głównie polskojęzycznych, oraz oparty na nim inteligentny asystent, powstaną w ramach współpracy sześciu wiodących jednostek naukowych z obszaru AI, przetwarzania języka naturalnego oraz językoznawstwa korpusowego.

Od prawie roku wielkie językowe modele generatywne (LLMs) zachwycają niewyobrażalnymi dotychczas możliwościami sztucznej inteligencji. Oprócz wielu zalet te najpotężniejsze, jak ChatGPT czy Google Bard, mają jednak swoje ograniczenia: kosztują, są zamknięte i zostały wytrenowane ze zbyt małym udziałem treści polskojęzycznych. 

A gdyby chcieć stworzyć otwarty, darmowy model w większości wytrenowany na treściach polskojęzycznych?

Trzeba by wiedzy i kompetencji, wykraczających poza pojedyncze katedry czy jednostki naukowe, potężnych zasobów obliczeniowych i ogromnych zbiorów danych o wymaganym zróżnicowaniu i jakości. 

Dlatego też 29 listopada 2023 r., w przeddzień pierwszych urodzin chatGPT, sześć spośród wiodących w Polsce jednostek naukowych z obszaru sztucznej inteligencji i językoznawstwa: Politechnika Wrocławska (lider konsorcjum), Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Państwowy Instytut Badawczy NASK, Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN zawiązało konsorcjum PLLuM (Polish Large Language Universal Model). 

Konsorcjum przyświeca wspólny cel: stworzenie pierwszego polskojęzycznego otwartego dużego modelu językowego oraz wykorzystującego ten model inteligentnego asystenta. Całość projektu ma być przeprowadzona zgodnie z dobrymi praktykami etycznej i odpowiedzialnej sztucznej inteligencji, w tym przy zachowaniu reprezentatywności, przejrzystości i sprawiedliwości danych. Istotną rolę odegra tu więc również AI Lab