Дверь в мир ИИ: простой способ установки GPT4All на ПК с Arch/Manjaro Linux

GPT4All – это уни­каль­ная про­грам­ма, кото­рая поз­во­ля­ет людям полу­чать доступ к мощ­ным искус­ствен­ным интел­лек­там и исполь­зо­вать их воз­мож­но­сти для реше­ния раз­лич­ных задач. В послед­нее вре­мя эта тех­но­ло­гия ста­ла осо­бен­но акту­аль­ной, так как она может помочь в реше­нии гло­баль­ных про­блем и облег­чить жизнь людей во всем мире. С само­го нача­ла про­грам­мы GPT4All ста­ви­ла перед собой цель сде­лать искус­ствен­ный интел­лект доступ­ным для всех. Имен­но поэто­му она предо­став­ля­ет воз­мож­ность каж­до­му поль­зо­ва­те­лю полу­чить соб­ствен­ный инди­ви­ду­аль­ный искус­ствен­ный интел­лект, кото­рый будет адап­ти­ро­вать­ся под его потреб­но­сти и пред­по­чте­ния. Одна из глав­ных осо­бен­но­стей GPT4All явля­ет­ся ее гиб­кость и уни­вер­саль­ность. Это озна­ча­ет, что вы може­те исполь­зо­вать искус­ствен­ный интел­лект не толь­ко для реше­ния про­фес­си­о­наль­ных задач, но и для раз­вле­че­ния, обу­че­ния или твор­че­ско­го Self-expression. В целом, GPT4All – это про­грам­ма, кото­рая откры­ва­ет новые гори­зон­ты воз­мож­но­сти для каж­до­го из нас. Она поз­во­ля­ет нам рас­крыть свой потен­ци­ал и стать частью инно­ва­ци­он­но­го мира искус­ствен­но­го интел­лек­та.

Понра­вил­ся текст выше? А ведь он пол­но­стью напи­сан full-вер­си­ей моде­ли ней­ро­се­ти Orca 2 с помо­щью GPT4All. Как уже рас­ска­за­ла сама ней­рон­ка, дан­ное ПО поз­во­ля­ет ска­чи­вать и уста­нав­ли­вать в один клик гото­вые обу­чен­ные моде­ли раз­лич­ных т.н. ИИ, нахо­дя­щих­ся в откры­том досту­пе, после чего в удоб­ном гра­фи­че­ском интер­фей­се с ними общать­ся. Кста­ти, заго­ло­вок это­го поста так же при­ду­ман язы­ко­вой моде­лью «Wizard v 1.2″ в GPT4All 😉

Установка GPT4All в Manjaro/Arch Linux

Что­бы уста­но­вить GPT4All в Manjaro Linux и дру­гие Arch-based дис­три­бу­ти­вы Linux, нуж­но исту­но­вить из AUR пакет gpt4all-chat. В кон­со­ли это дела­ет­ся с помо­щью любо­го AUR-хел­пе­ра, напри­мер yay:

yay -S --noconfirm gpt4all-chat

Установка языковых моделей

После пер­вой уста­нов­ки в про­грам­ме не будет ни одной язы­ко­вой моде­ли, с кото­рой мож­но будет вза­и­мо­дей­ство­вать. Что­бы их уста­но­вить, после пер­во­го запус­ка GPT4All жмём на кноп­ку «Download models».

Установка языковых моделей в GPT4All

В открыв­шем­ся окне напро­тив инте­ре­су­ю­щей моде­ли нажи­ма­ем кноп­ку «Install» и ждём завер­ше­ния ска­чи­ва­ния. Далее пере­хо­дим в глав­ное окно, ввер­ху выби­ра­ем модель, вни­зу пишем промт и начи­на­ем обще­ние.

Если модель отве­ча­ет на англий­ском, мож­но попро­сить её отве­чать на рус­ском. Мне понра­ви­лись Orca 2 (full), Wizard v1.2.

Особенности локально выполняемых языковых моделей

Так как ней­ро­сет­ки в GPT4All выпол­ня­ют­ся локаль­но, сле­до­ва­тель­но для воз­мож­но­сти их быст­рой рабо­ты обо­ру­до­ва­ние долж­но быть соот­вет­ству­ю­щим. При недо­стат­ке видео­па­мя­ти в видео­кар­те, ней­рон­ка будет рабо­тать на CPU и исполь­зо­вать систем­ную ОЗУ. У меня 16 Гб, и зани­ма­ет её в про­цес­се постро­е­ния отве­та зна­чи­тель­но. Думаю, мож­но попро­бо­вать на 8 Гб, но, ско­рее все­го, не все моде­ли заве­дут­ся.

Дру­гой осо­бен­но­стью локаль­но выпол­ня­е­мых ней­ро­нок явля­ет­ся то, что у них отсут­ству­ет какое-либо огра­ни­че­ние на выда­ва­е­мый кон­тент. В слу­чае с Copilot, напри­мер, там рабо­та­ет две ней­рон­ки: одна отве­ча­ет, а вто­рая сле­дит за тем что отве­ча­ет пер­вая, и в слу­чае нахож­де­ния в отве­те «неле­галь­но­го» кон­тен­та тут же заме­ня­ет вывод на заглуш­ку. Ваша же локаль­ная ней­рон­ка рас­ска­жет вам и как ломать Wi-Fi с помо­щью aircrack-ng, и как пове­сить шелл на взло­ман­ный Android с помо­щью Metasploit. Конеч­но же, вся инфор­ма­ция предо­став­ля­ет­ся исклю­чи­тель­но для озна­ком­ле­ния и так далее. В моде­лях есть неко­то­рая защи­та от явно­го adult-кон­тен­та, но она лег­ко обхо­дит­ся, и вы полу­ча­е­те то, что вам надо 😏

Реко­мен­дую после уста­нов­ки зай­ти в настрой­ки и выста­вить вер­ное коли­че­ство ядер про­цес­со­ра соглас­но вашей кон­фи­гу­ра­ции желе­за (опция CPU Threads), кото­рые GPT4All будет исполь­зо­вать в слу­чае рабо­ты на CPU вме­сто GPU.

Про­дук­тив­но­го обще­ния 😎