{"id":29,"date":"2026-01-13T14:23:14","date_gmt":"2026-01-13T14:23:14","guid":{"rendered":"https:\/\/sympatycyadminakademii.pl\/?p=29"},"modified":"2026-01-13T14:23:24","modified_gmt":"2026-01-13T14:23:24","slug":"prywatnosc-danych-i-ai-nowy-material-analiza-uruchamiania-modeli-llm-lokalnie","status":"publish","type":"post","link":"https:\/\/sympatycyadminakademii.pl\/index.php\/2026\/01\/13\/prywatnosc-danych-i-ai-nowy-material-analiza-uruchamiania-modeli-llm-lokalnie\/","title":{"rendered":"Prywatno\u015b\u0107 danych i AI: Nowy materia\u0142. Analiza uruchamiania modeli LLM lokalnie."},"content":{"rendered":"\n<p>Na kanale AdminAkademia opublikowano nowy, obszerny materia\u0142 wideo, kt\u00f3ry koncentruje si\u0119 na uruchamianiu modeli sztucznej inteligencji (LLM) na sprz\u0119cie lokalnym. G\u0142\u00f3wny nacisk po\u0142o\u017cono na kwestie prywatno\u015bci i bezpiecze\u0144stwa danych.<\/p>\n\n\n\n<p>Zgodnie z materia\u0142em, kluczowym problemem modeli chmurowych (jak ChatGPT, Gemini) jest to, \u017ce wszelkie dane, kt\u00f3re do nich wysy\u0142amy, musz\u0105 by\u0107 traktowane jako potencjalnie publiczne. Dla zastosowa\u0144 biznesowych stanowi to powa\u017cne ryzyko.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kluczowe zagadnienia z materia\u0142u:<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>1. Po co uruchamia\u0107 AI lokalnie?<\/strong><\/h3>\n\n\n\n<p>G\u0142\u00f3wnym motywatorem jest pe\u0142na kontrola nad danymi. Informacje (np. firmowe, prywatne) przetwarzane s\u0105 wy\u0142\u0105cznie na maszynie u\u017cytkownika i nigdy jej nie opuszczaj\u0105.<\/p>\n\n\n\n<p>W filmie przytoczono przyk\u0142ad wdro\u017cenia w Santander Consumer Bank, gdzie lokalny model AI zosta\u0142 wytrenowany do obs\u0142ugi korespondencji mailowej. Pozwoli\u0142o to na automatyzacj\u0119 i wsparcie pracownik\u00f3w przy jednoczesnym zachowaniu pe\u0142nej poufno\u015bci danych bankowych.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>2. Sprz\u0119t: Problem VRAM i rozwi\u0105zanie AMD<\/strong><\/h3>\n\n\n\n<p>Uruchamianie modeli LLM jest zasobo\u017cerne. Chocia\u017c mo\u017cna je uruchomi\u0107 na CPU, dzia\u0142aj\u0105 wtedy bardzo wolno. Standardowe karty graficzne (GPU) s\u0105 znacznie szybsze, ale ich g\u0142\u00f3wnym ograniczeniem jest ilo\u015b\u0107 pami\u0119ci VRAM. Du\u017ce modele po prostu si\u0119 w niej nie mieszcz\u0105.<\/p>\n\n\n\n<p>W materiale szczeg\u00f3\u0142owo zaprezentowano mini PC GMKTEC EVO X2 , wyposa\u017cony w procesor AMD Ryzen AI 9 395. Jego kluczow\u0105 cech\u0105 jest mo\u017cliwo\u015b\u0107 wsp\u00f3\u0142dzielenia systemowej pami\u0119ci RAM ze zintegrowan\u0105 kart\u0105 graficzn\u0105.<\/p>\n\n\n\n<p>Dzi\u0119ki temu, w konfiguracji ze 128 GB RAM, mo\u017cliwe jest przydzielenie a\u017c 96 GB pami\u0119ci bezpo\u015brednio dla GPU, co zosta\u0142o pokazane w ustawieniach BIOS\/UEFI (opcja UMA frame buffer size). Rozwi\u0105zuje to najwi\u0119kszy problem VRAM, kt\u00f3ry wyst\u0119puje w konsumenckich kartach graficznych.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>3. Oprogramowanie: Ollama<\/strong><\/h3>\n\n\n\n<p>Jako platform\u0119 do uruchamiania modeli wybrano oprogramowanie Ollama. Jest to popularne, open-source\u2019owe narz\u0119dzie, kt\u00f3re upraszcza proces pobierania i zarz\u0105dzania modelami.<\/p>\n\n\n\n<p>Instalacja: Proces instalacji na Windows jest pokazany jako bardzo prosty.<\/p>\n\n\n\n<p>Dost\u0119p sieciowy (API): Ollama mo\u017cna \u0142atwo skonfigurowa\u0107, aby &#8220;wystawia\u0142a&#8221; API w sieci lokalnej, co umo\u017cliwia \u0142\u0105czenie si\u0119 z modelami z innych aplikacji (np. n8n).<\/p>\n\n\n\n<p>Modele: Pokazano pobieranie r\u00f3\u017cnych modeli (GPT-OSS, DeepSeek, Llama) za pomoc\u0105 polece\u0144 ollama pull oraz ollama run. Zwr\u00f3cono tak\u017ce uwag\u0119 na dost\u0119pno\u015b\u0107 polskiego modelu Bielik.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>4. Konfiguracja na Windows (Automatyczny start)<\/strong><\/h3>\n\n\n\n<p>Istotn\u0105 uwag\u0105 praktyczn\u0105 jest fakt, \u017ce Ollama domy\u015blnie nie uruchamia si\u0119 automatycznie wraz ze startem systemu Windows.<\/p>\n\n\n\n<p>Aby rozwi\u0105za\u0107 ten problem, w materiale zaprezentowano skrypt PowerShell, kt\u00f3ry automatycznie tworzy odpowiednie zadanie w Harmonogramie Zada\u0144 Windows. Pozwala to na uruchomienie us\u0142ugi Ollama w tle, zaraz po starcie komputera, jeszcze przed zalogowaniem u\u017cytkownika.<\/p>\n\n\n\n<p>\u0179r\u00f3d\u0142a: AdminAkademia (YouTube) \/ Opublikowane skrypty (GitHub)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Na kanale AdminAkademia opublikowano nowy, obszerny materia\u0142 wideo, kt\u00f3ry koncentruje si\u0119 na uruchamianiu modeli sztucznej inteligencji (LLM) na sprz\u0119cie lokalnym. G\u0142\u00f3wny nacisk po\u0142o\u017cono na kwestie prywatno\u015bci i bezpiecze\u0144stwa danych. Zgodnie z materia\u0142em, kluczowym problemem modeli chmurowych (jak ChatGPT, Gemini) jest to, \u017ce wszelkie dane, kt\u00f3re do nich wysy\u0142amy, musz\u0105 by\u0107 traktowane jako potencjalnie publiczne. Dla [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-29","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/posts\/29","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/comments?post=29"}],"version-history":[{"count":2,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/posts\/29\/revisions"}],"predecessor-version":[{"id":31,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/posts\/29\/revisions\/31"}],"wp:attachment":[{"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/media?parent=29"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/categories?post=29"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sympatycyadminakademii.pl\/index.php\/wp-json\/wp\/v2\/tags?post=29"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}