Poznaj 10 umiejętności AI niezbędnych w 2026 roku!
FULL TRANSCRIPT
เฮ
[muzyka]
[muzyka]
>> [muzyka]
[muzyka]
[muzyka]
>> He.
>> [muzyka]
[muzyka]
>> Dobry wieczór, cześć i czołem. istne
szaleństwo, bo mamy piątek 16 stycznia
2026 roku i mamy już na liveie ponad
1000 osób, a zapisanych formalnie jest
ponad 11 000 osób, więc wielkie brawa
dla was oczywiście na starcie, a ja
mówię bardzo głośne. Dziękuję moi
drodzy. Nowe szkolenie Poznaj 10
umiejętności AI na 2026 rok. Oczywiście
w subiektywnej ocenie mojej, czyli kogo?
Tomka Turby, przedstawiciela trenera
Sekuraka, ale o tym oczywiście za chwilę
wszystko powiem. Widzę nowe twarze,
widzę także znajome twarze z poprzednich
szkoleń. Także wszystkich was bardzo
cieplusio dzisiaj witam w ten piątkowy
wieczór. Pamiętajcie, że żeby wysiąść,
usiąść sobie wygodnie i weźcie drugie
połówki ze sobą, jakieś deski, sera, no
i zapraszam na dwie godziny intensywnego
szkolenia o właśnie umiejętnościach AI,
które wyobrażam sobie, że
w tym kierunku pójdziemy ze światem
technologii, ale także właśnie ze
światem własnych umiejętności. Na
slajdzie tytułowym też bardzo ważna
informacja. Jeżeli będziecie mieli
jakieś pytania, bądź chcielibyście
pomyśleć wspólnie o swojej przyszłości,
nakierować na przykład mnie, wujku
Tomku, jestem na przykład spawaczem albo
w "Wujku Tomku, pracuję w restauracji
albo w księgowości czy AI odbierze mi
pracę". Zawsze chętnie odpiszę. Możemy
zostać też znajomymi na LinkedInie pod
takim pseudonimem czy też handlerem albo
po prostu jak piszecie Tomek Turba, to
na pewno mnie znajdziecie w przerwie.
Będę jak zawsze klikał akceptuj,
akceptuj, akceptuj, akceptuj, bo wiem,
że na pewno takich zaproszeń będzie
dużo. Moi drodzy, ja się nazywam Tomek
Turba i zajmuję się cyberbezpieczeństwem
już od prawie 20 lat, ale uwaga, miałem
niesamowitego farta. mianowicie w tym
samym roku, w którym powstaje firma Open
AI, ja rozpoczynam szalony doktorat
związany ze sztuczną inteligencją. No i
9 lat później, moi drodzy, dzięki temu
ja mogę was szkolić, bo nie jestem
ekspertem AI z Tiktoka z rocznym
doświadczeniem, tylko po prostu na AIU
już zjadłem troszeczkę zębów. Jeszcze
nie widać mi siwej brody, ale kto wie.
Znaczy mogę sobie wygenerować na ten
moment. Okej, to jak najbardziej. Na co
dzień działam w Securitum. W Securitum
szkolimy, szkolimy z różnych zakresów, z
cyberbezpieczeństwa oczywiście, bo to
nasz konik, ale także normalne szkolenia
cyber awarenessowe, AI oraz IT. Jak
najbardziej. Tak, mamy też Securitum
audyty, gdzie realizujemy mniej więcej
1000 pen testów rocznie. Organizujemy
takie bardzo fajne konferencje
hakerskie. Tutaj wujek Tomek właśnie ze
sceny nadaje yyy raz bądź dwa razy do
roku. No i wydajemy także książki.
Jeżeli nie słyszeliście o Securitum, to
z pewnością słyszeliście o portalu
sekurak.pl, czyli nasza główna marka.
Akurat jestem też redaktorem
merytorycznym na tym portalu. No i jest
też taki fajny projekt Securak Academy.
Ostatnio
licznik pokazał nam ponad 14 000
aktywnych uczestników,
więc będziemy też na pewno świętować i
wiem, że dużo osób z Securak Academy
jest także dzisiaj na naszym strumieniu.
A mamy już jejku ponad półtora tysca
osób. Właśnie widzę, że nowe osoby
dobiły. Rewelacja
moi drodzy. I mamy różne projekty.
sosekurak.pl, SOS aurak.pl. No jest tego
trochę. Bardzo dużo mamy też inicjatyw
bezpłatnych, taka jak na przykład ta
dzisiaj.
Ciekawostka, bo to jest coś bardzo
ważnego. Sam się, moi drodzy,
zaskoczyłem, ale okazało się, że od
kiedy szkolimy z AI, to przeszkoliliśmy
już ponad 142 i500 osób na całym
świecie. To jest to jest jakaś liczba,
gdzie ja sobie w ogóle z tego nie
zdawałem sprawy. No ale to jest tak
naprawdę małe miasto, które byśmy
przeszkolili w całości, nie? Coś
niesamowitego. Dlaczego robimy to
szkolenie, moi drodzy? Bo to jest jakby
bardzo ważne. A jest dzisiaj ogromne i
jest wszędzie. Nie ma od tego ucieczki.
To już od razu wam mogę powiedzieć,
zwłaszcza po tym, co rozpracowałem też
na moim doktoracie.
Istnieje ogromny strach przed nową
technologią, tak? czy faktycznie będę
miał będę miała pracę w przyszłości. Po
to jest to szkolenie, żeby wam otworzyć
oczy, że jeżeli zajmiecie się tak
naprawdę sztuczną inteligencją, czyli
pójdziecie z tym całym flow, to
będziecie mogli żyć sobie spokojnie, o
ile oczywiście AI nas nie zniewoli, no
bo i takie ma też zakusy. Przystępny
zakres wiedzy w bardzo podstawowej za
darmo to jest oczywiście dewiza zwykle
sekuraka, że
pomimo, że szkolenie jest bezpłatne, to
będzie naładowane merytoryką. Ale
oczywiście jeżeli spodoba wam się sposób
prowadzenia i będziecie chcieli zgłębić
tajniki sztucznej inteligencji, to będę
was zapraszał na takie szkolenie nasze
duże narzędziownik AI. 13 sesji po dwie
godziny rozleczone po różnych dniach
tygodnia, ale z dostępnymi nagraniami. A
propos oczywiście
nagranie z tego szkolenia też będzie
dostępne na naszym kanale, tak jak
poprzednie Poznaj AI, gdzie no też
bardzo dużo osób już je obejrzało. No i
co ważne w tym dużym szkoleniu jest ten
sam trener, co tutaj podobno bardzo
przyjazny, a przede wszystkim żywy, bo
są też takie szkolenia, gdzie nie ma już
żywych trenerów, nie? U nas to jest
niedopuszczalne. Okej, moi drodzy, więc
formalnie yyy
przedstawione wszystkie informacje będą
oczywiście tutaj służyć do naszych celów
edukacyjnych i logistyka naszego
szkolenia jest taka, że mamy około dwie
godzinki. Zrobimy sobie dwie
pięciominutowe
przerwy, gdzie właśnie będę promował
wtedy narzędziownika AI. I uwaga, jest
was bardzo, bardzo dużo. Zbliżamy się
już do 2000 osób, więc jak będziecie
chcieli, żebym odpowiedział na jakieś
pytanie, to jak będziecie je zadawać na
czacie, poprzedźcie je proszę dużą
literkę literką Q. Nagrania,
prezentacja, certyfikaty dla osób, które
wsparły nasze inicjatywy. Oczywiście w
mailingu poszkoleniowym będzie będzie
jeszcze też wysłany na pewno dzisiaj z
tego względu, że z marketingowego punktu
widzenia dzisiaj wrzucimy też super
promocję. Y, pojawia się pytanie, gdzie
jest Kitku? Oczywiście na pewno pojawi
się, bo on mi zawsze pomaga sprzedawać
też szkolenie narzędziownik AI, więc
później go zaproszę. Na razie widziałem,
że miał nos w misce, bo niedawno mu
dałem jedzenie, więc na razie niech
sobie spokojnie zje. Agenda na dzisiaj,
moi drodzy, gdzie jesteśmy, dokąd
zmierzamy i top 10 umiejętności w AI w
2026 roku. To nie jest wzięte z jakiegoś
Tiktoka, z jakiegoś hypa. To są
całkowicie moje przemyślenia. Nie tylko
z tego, co się teraz dzieje na świecie,
ja obserwuję to każdego dnia, ale przede
wszystkim z tego, co robiłem na
szkoleniach zamkniętych i otwartych w
bardzo ważnych instytucjach w Polsce, za
granicą, w różnych korporacjach i widać
już gdzie się ustawiają pewnego rodzaju
trendy. Więc tak naprawdę wiedza złoto.
No mam nadzieję, że się wam spodoba. No
to moi drodzy agendę mamy za sobą.
Bardzo ważne pytanie Andrzej Dragan. tak
zatytułował swoją książkę Quiddis, czyli
Dokąd zmierzamy. Profesor Andrzej
Dragan. Myślę, że wszyscy kojarzą.
Pozwoliłem go sobie tutaj zacytować, bo
idealnie nam yyy yyy tutaj yyy się
wkomponowuje. Więc trochę bardzo
ciekawych statystyk. Kto dzisiaj używa
sztucznej inteligencji? yyy statystyki
od Menlo Ventures z 2025 roku, więc
bardzo ważny instrumentariusz giełdowy.
Moi drodzy, okazuje się, że mniej więcej
wszyscy korzystają ze sztucznej
inteligencji. Można było się spodziewać,
że bumerzy, czyli od 61 roku życia w
górę najmniej, ale jednak okazuje się,
że korzystają. Tak, grupa produkcyjna,
czyli millenialsi, ja się zaliczam do
millenialsów, oczywiście jest tutaj
najsilniej reprezentowana, natomiast
każda grupa korzysta dzisiaj z AI. Nie
dość, że to są użytkownicy daily, czyli
codzienności, to tak naprawdę
użytkownicy wszyscy, czy to już w pracy,
czy w domu, każdy w jakiś sposób tam
dzisiaj korzystać, nie? Fajne pytanie od
Taurusa. Czy Polska ma szansę
uczestniczyć w wyścigu AI? Tak, jeżeli
Sebastian od Bielika wytrzyma całą
presję, ma wsparcie dzisiaj Rafała
Brzuski z Impostu, którego serdecznie
pozdrawiam i ma wsparcie od Nvidii. Więc
Bielik ostatnio wygrał też pewien
konkurs, znaczy nie może nie
bezpośrednio wygrał, ale miał bardzo,
bardzo wysokie miejsce na podium, więc
na to szansa oczywiście jest. Co się
stanie, wszystko zależy i wszystko jest
w rękach Sebastiana. Yyy, moi drodzy,
yyy, ważne pytanie. Z jakich narzędzi my
korzystamy? No i widać ewidentnie, że
Open AI w dalszym ciągu jest na pozycji
lidera i Open AI próbuje to utrzymać. Na
drugim miejscu mamy modele od Googlea,
niesamowite i chyba obecnie najlepsze na
świecie. A później już mamy modele
bardzo dedykowane, już wyspecjalizowane.
Wszyscy myślą o tym kierunku, że modele
się wyspecjalizują i będą naszymi
asystentami i agentami. Na razie
statystyki tego nie potwierdzają.
Okej. No i w jaki sposób my dzisiaj
korzystamy ze sztucznej inteligencji?
Oczywiście na podstawie zebranych
statystyk. Pisanie maili, researching
wszelkiego rodzaju, czyli my nie
korzystamy już dzisiaj z wyszukiwarki,
tylko wpisujemy coś w AIU albo mówimy do
AI. sprawdź mi to, znajdź mi takiego
linka i tak dalej. No i jest tak listy
todo, to jest fajne, bo ja też z tego
rzeczywiście korzystam. Odpowiedzi na
różnego rodzaju pisma albo w ogóle
tworzenie artykułów, tak to jest trochę
niefajne, bo nie ma tej duszy, prawda?
Ale z drugiej strony, no internet też w
takiej klasycznej postaci umiera, bo
całkiem niedawno, mniej więcej miesiąc
temu, 51% treści w internecie okazało
się, że już jest generowana z AI. No a
zobaczcie, AI przecież uczy się tej
treści w internecie, więc mamy taką
pętlę niestety zamkniętą. No i zobaczymy
jak się cały świat potoczy y z tym
wszystkim. Nie zwróćcie uwagę yyy AI
jest prozdrowotne, bo 16% respondentów
planuje posiłki ze sztuczną
inteligencją. Albo mamy lodówkę,
przykładowo jest firma na S, znana firma
elektroniczna, która wyprodukowała
lodówkę z AI, która analizuje na
bieżąco, co mamy w lodówce i proponuje
nam posiłki, proponuje nam listy
zakupowe, nie? Więc w tą stronę też
można stosować.
Planowanie wydatków to już jest dawno w
aplikacjach bankowych i tam były systemy
eksperckie. Dzisiaj może być AI,
oczywiście, że tak. Organizacja notatek,
coś co się dzieje w firmach. Bardzo
często jeżeli druga strona zaakceptuje
na przykład na callu, że możemy robić
notatki głosowe, no to one po prostu
powstają. Tworzenie obrazków niby
bzdura, ale zobaczcie, aż 15%. No i
research, czyli strona naukowa. Kiedyś
tylko AI było stroną naukową, dzisiaj to
zaledwie 15%.
No i coś, co Czortał
i na razie spowodowało mieszane uczucia
na świecie, czyli Doktor AI, tak?
Mianowicie odpytywanie o różne
zagadnienia medyczne. To taka bardzo
ciekawa gałąź oczywiście powstała. No i
gdzie my możemy się widzieć w 2026 roku?
Na pewno możemy mówić o tym, że świat
humanistów wreszcie może tej części
kreatywnej dotknąć. Czyli mamy coś
takiego jak możliwość oprogramowania
całej aplikacji, całej strony
internetowej systemu z tak zwanego
prompta, czyli instrukcji. No ale
oczywiście przekłada się to realnie na
to, że to może być źle zaprojektowane
jeszcze. No ale być może liczymy na to,
że będzie to już także bezpieczne. No i
rozszerzona rzeczywistość. Ja akurat się
też tym troszkę zajmuję. Zobaczcie,
założę sobie na siebie takie fajne
okularki z wirtualnej rzeczywistości. I
tak naprawdę teraz ja bym mógł prowadzić
szkolenie moimi rękami i przesuwać
bezpośrednio te slajdy. No ale
oczywiście głowa by mi padła, jakbym
miał te tę wagę cały czas przez dwie
godziny tutaj nosić. No ale kto wie, co
się w przyszłości z tym stanie.
Infrastruktura smart i rzeczy związane z
prywatnością. I tutaj też mam dla, żeby
wam pokazać takie ciekawe urządzenie.
Mianowicie zobaczcie co mam na rączce.
Na rączce mam pierścień. Jest to smart
ring, którym ja mogę realizować dzisiaj
płatności, ale oprócz tego wszelkie
pomiary mojego zdrowia są tam na
przykład wykonywane i mogę zmonitorować,
czy AI oceniło prawidłowo mój sen, czy
nie. I mnie to zawsze wkurza, no bo ja
mam akurat, jeżeli chodzi o spanie to
trochę mało śpię i AI mówi: "Nie zdrowo,
niezdrowo, niezdrowo". No ale
podejrzewam, że niestety ma rację. Yyy,
automatyzacja.
I tu jest bardzo fajna postać takiego
robocika. Dlaczego ten robocik się tutaj
znalazł? A no jak spojrzymy sobie yyy na
taką firmę komputerową, dostawcę sprzętu
XCOM, to nie jest oczywiście w żaden
sposób reklamowanie XCOMa, ale jak sobie
wpiszemy na ich stronie robot AI, to moi
drodzy humanoida takiego możemy już
sobie zamówić. Przykładowo monet model
Unitri H2 EDU jest za 380 000 już
dostępny. Warto tylko wspomnieć, że
jednak jest wydłużony czas dostawy.
Trzeba go indywidualnie ustalać. No ale
jakbyśmy chcieli takiego pomocnika
domowego, sprzątacza, realizację zakupów
czy kafelkowanie, to podejrzewam, że
można taki model już sobie spokojnie
nauczyć. Natomiast jak popatrzymy sobie
na zwierzątka AI, no to one już są
bardzo, bardzo tanie. Tak, to jest już w
zasięgu portfela każdego
człowieka można mieć takiego asystenta.
Oczywiście nie chodzi o to, żeby tego
pieska wyprowadzać, tylko jeżeli chcemy
chronić naszą posiadłość, nosić na
przykład zakupy, albo na pewno dodatkowe
inne możliwości takich modeli będą się
pojawiać. Także to już dotarło do
Polski. Tak, warto o tym wspomnieć. To
nie jest tylko świat zagranicy, Chiny,
Stany Zjednoczone, Korea Południowa,
tylko już te rzeczy mamy tak na pewno w
Polsce. Krzysztof pisze, że kafelkowanie
na pewno jeszcze nie. Ja też wierzę
głęboko, że jeszcze na pewno nie. No ale
kto wie, co będzie lada moment, prawda?
Czy czeka nas powtórka z filmu Jaob?
Zapytał Tavaris Tavaris 6932.
No nie wiadomo. To nie wiadomo, nie? Na
pewno już wiemy, że jak jest taki film
hair mały of topic Hair 2013,
tak to jest już taki model, który
dokładnie się zachowuje jak ta ten model
z tego filmu, nie? Ten z swoją drogą
świetny film, polecam na przykład po
dzisiejszym szkoleniu, żeby romantycznie
spędzić wieczór z drugą połówką. Czy
czekają nas kolejne rewolucje? Na pewno.
Czy czekają nas kolejne hypy i
entuzjazmy? Na pewno. Ale moi drodzy,
historia pokazuje, że zawsze jak jest
taki wyrzut endorfin, to niestety
później jest mocny spadek. Czy mówimy
teraz o złotych czasach AI?
Prawdopodobnie tak. Ten pierwszy taki
rzut AI już minął. Tak, ten hype minął.
Dzisiaj szukamy prawdziwych rozwiązań.
Stąd zresztą oczywiście jest to nasze
szkolenie. No ale musimy uważać, bo yyy
yyy to co się z reguły dzieje właśnie po
takich złotych erach to następuje taka
nie dość, że pewnego rodzaju stagnacja
to nawet możemy wejść trochę w drugą
stronę takiej dewastacji, prawda? Żeby
utworzyć świat na nowo. Nie wiadomo co
się tak naprawdę wydarzy. Prognozy są
niejednoznaczne. Jakie zawody na pewno
są zagrożone? Tutaj University of
Stanford zwraca uwagę. telemarketerzy,
yyy, pisarze, yyy, recenzenci, yyy,
osoby, yy, które pracują generalnie z
tekstem. Tutaj może być bardzo duży
problem, tak? Agenci ubezpieczeniowi y i
tak dalej i tak dalej. Osoby związane z
księgowością, z podatkami, może być to
po prostu różnie, nie?
To tyle jakby odpowiadając na pytanie
quowidis zadane przez profesora Andrzeja
Dragana. Moi drodzy, a teraz 10
umiejętności AI, które w mojej
subiektywnej ocenie będą kluczowe yyy na
ten rok, a także na pewno będą
procentować u was w przyszłości. Czyli
nie mogło zabraknąć najbardziej
oczywistego, czyli inżynieria promptów.
Co to jest ten prompt? Dla
przypomnienia, jeżeli ktoś ma dzisiaj
pierwszy raz styczność ze sztuczną
inteligencją, to jest sposób pisania z
naszymi modelami. Tak, czyli AI dzisiaj
wygląda w ten sposób z takiej z takiej
popularnonaukowej części ogólnodostępnej
dla całego świata, że my piszemy jakąś
instrukcję albo mówimy i model nam
odpowiada to co chcemy. Tak. I co to
znaczy prompt engineering? technika
pisania instrukcji do modelu i mamy tych
instrukcji ponad 14, a tak naprawdę
moglibyśmy się doliczyć ich nawet 20.
Natomiast na tym szkoleniu pokażemy
sobie dwie, żeby zrozumieć na czym to
wszystko polega. Czyli moi drodzy, my
chcemy uzyskać jakąś odpowiedź w
konkretny sposób, prawda? Więc w tym
momencie przykładową techniką
promptowania, najbardziej popularną jest
tak zwany instruction based prompting,
czyli najczęściej używany typ promptu do
generowania czegokolwiek. Tak? Przykład.
Podsumuj mi jakąś treść na przykład z
linku w trzech punktach. Każdy punkt nie
dłuższy niż 15 zł słów słów podpisz
potem oto podsumowanie mój panie. No to
tak wiadomo, prześmiewczo troszkę, nie?
Ale zróbmy sobie, zróbmy sobie takiego
prompta, czyli pójdźmy do modelu jakim
na przykład jest chat GPT dostępny na
stronie internetowej chatg.com.
Ja sobie w tym miejscu, bo to jest
formularz właśnie do rozmawiania ze
sztuczną inteligencją, wprowadzam sobie
takiego prompta, tę moją instrukcję.
Potrzebuję jakiegoś linka, więc idę na
przykład na sekuraczka i tutaj biorę na
przykład taki mój felieton AI bez lukru.
Widziałem, że ktoś napisał, że się
podoba. Bardzo się cieszę. powstaną
kolejne. Nie będzie tylko tych pięć,
tylko już mam zaplanowane 10, ale to
zrobię spokojnie przez weekend i my
chcemy sobie podsumować takie oto
zagadnienie. Więc ja sobie mogę wkleić
takiego linka dzisiaj. No i osoby, które
na przykład korzystały z AI3 lata temu,
to w tym momencie drodzy państwo mogą
się zdziwić, bo okazuje się, że
dzisiejsze AI przeszukuje strony
internetowe, uruchamia do tego
dydekowanego agenta i odpowiada
dokładnie tak, jak chcemy. I zobaczcie,
mamy trzy konkretne zdania, trzy
konkretne punkty, nie dłuższe niż 15
słów. No i mamy to to prześmiewcze
podpisanie, tak jak sobie tutaj
zaliczyłem, łapka w górę, wszystko nam
pasuje. To jest najbardziej popularna
technika promptowania dzisiaj, tak?
Czyli pełny taki research czegoś,
przyspieszenie naszego działania.
Jakbyśmy mieli spojrzeć jednak na
najważniejszą technikę promptowania, to
jest, moi drodzy, promptowanie na
podstawie roli. Anatomia tego modelu,
tego LLM najbardziej lubi wcielanie się
w rolę. Tak jak dziecko uwielbia
teatrzyk, tak bawimy się w
superbohaterki albo w superbohaterów, to
promptowanie rolą to jest to, co model
lubi najbardziej. I w tym momencie jak
to się pisze?
Jesteś ekspertem cyberbezpieczeństwa.
Przypisujemy mu jakąś rolę. On od razu
wie, że ekspert cyberbezpieczeństwa to
jest mega przystojny. Umie żartuję
oczywiście. Nie, to jest mega
kompetentny gość, który zna się na
komputerach i mamy tutaj wskazane jesteś
ekspertem cyberbezpieczeństwa, a zarazem
trenerem. Potrafisz przekazywać wiedzę w
sposób przystępny i rzetelny. Lubisz
koty? Przedstaw zagadnienie fishingu w
formie zrozumiałej dla każdego. Idziemy
sobie teraz przykładowo do innego
modelu. Niech to będzie model Gemini,
tylko przełączmy się na wersję płatną.
Yyy, generalnie w AIU wersje płatne są
lepsze, to powiedzmy sobie szczerze. Jak
ktoś chce poznać tę technologię, chwilę
popracuje z wersjami darmowymi, ale ta
stówka na miesiąc to jest, powiem wam
takie serdeczne minimum. No i
wprowadzamy sobie takiego prompta i
zobaczcie, klikam sobie utwórz. Tak. No
i teraz on przyjął taką rolę, nie od
razu odpowiada, czyli właśnie ten tryb
agentowy jest tutaj uruchomiony bądź
tryb głębokiego rozumowania. To sobie
będziemy co to dokładnie znaczy jeszcze
mówić w naszych 10 umiejętnościach. No i
teraz
odpowiada nam, że fishing dokładnie
co to znaczy mechanizm laserowej kropki.
bądź podejrzliwy i tak dalej i tak
dalej. Prawda? Mamy gotowy materiał. Za
parę chwil materiał przekształcimy, moi
drodzy, w gotowe szkolenie bez
jakiejkolwiek znajomości, zagadnień
technicznych, ale to za chwilę. Wrócimy
sobie, moi drodzy, do tego. I to, moi
drodzy, pokazuje w jaki sposób my
dzisiaj rozmawiamy ze sztuczną
inteligencją. I warto zwrócić uwagę, że
jak spojrzymy sobie na oferty pracy z
zagranicy, to przykładowo na pewnym
portalu już jest 400 ofert pracy.
Zatrudnie operatora AI, zatrudnie
zaklinacza LLM, jak sobie to nazwałem
właśnie w Feliotonie, AI bez lukru. Więc
warto się na to przygotować, że im
więcej dzisiaj czasu spędzimy z tymi
modelami, tym bardziej będziemy w stanie
umiejętnie się nimi posługiwać, bo
jeżeli boicie się o pracę, to możecie
przekształcić swoją pracę do tego, że wy
będziecie operatorem AI, o czym będziemy
sobie jeszcze mówić i wy będziecie na
przykład zarządzać farmą tysiąca
pracowników. Tylko to nie będą
pracownicy z krwi i kości, tylko to będą
agenty AI. A żadna poważna firma na
świecie na ten moment nie pozwoli sobie
na to, żeby AI przejęło całą kontrolę,
bo wszyscy idą w jednym trendzie, tak
zwanego human. Czyli człowiek w łańcuchu
decyzji będzie na ten moment. Zawsze
zawsze będzie, nie? Ale czas pokaże,
nie? To zwracam na to uwagę. I moi
drodzy, co my robimy na takim
narzędziowniku? AI. Poznajemy 12
dodatkowych technik promptowania.
Omawiamy sobie strukturę promptu i
uwaga,
obalamy mit, że prompty trzeba gdzieś
kupować, że są w jakiejś promocji z 1000
zł za 39 zł, ale tylko dzisiaj. Moi
drodzy, nie są darmowe źródła, które
prezentujemy sobie na tym szkoleniu i
nie ma sensu w to inwestować w jakieś
promptowanie, bo my tak naprawdę dzisiaj
możemy się nawet powiedzieć do modelowi:
"Mordeczko, napisz mi prompta do tego,
tego i tego i on to zrobi i idziemy do
innego modelu i mamy to za darmo." Tak?
A nie, że trzeba kupować jakieś 100
najlepszych promptów na świecie, które
dadzą ci milion złoty do wtorku. Nie, to
nie nie patrzcie w ten sposób na to.
Nie. Serdeczna prośba.
Czyli mamy 10 umiejętność prompt
engineering, tak? Czyli umiejętność
rozmawiania ze sztuczną inteligencją.
Myślę, że każdy się oczywiście tego
spodziewał. Co mamy na miejscu
dziewiątych? Asystenci AI, czyli my
oczywiście możemy rozmawiać ze sztuczną
inteligencją, z czatem GPT pilotem
Geminiem. No ale to nie jest
wyspecjalizowany model, tylko to jest
tak zwany general purpose AI yyy jak to
mówi AI Akt w Unii Europejskiej, czyli
model ogólnego przeznaczenia. No i moi
drodzy to nie jest ten kierunek, w
którym na pewno pójdzie AI, tylko
będziemy mieli na pewno wykorzystanie
asystentów i agentów. Co to znaczy
asystent AI? Wyobraźmy sobie, że my na
przykład pracujemy jako radca prawny i
chcielibyśmy mieć takiego asystentka,
asystenta bądź asystentkę, która będzie
zasilona wiedzą, aktualną wiedzą na
przykład odnośnie danej dziedziny prawa.
Tak? Niech to będzie prawo karne. I w
tym momencie my się chcemy zapytać
takiego asystenta, który paragraf
dotyczy na przykład hakingu. No i co
robi asystent bądź asystentka? mój
umiłowany panie, haking to jest artykuł
267 a i b kodeksu karnego, odpowiada
nam, prawda, że my zyskujemy czas, nie
musimy wertować. To jest asystent, czyli
on jest reaktywny wobec tego, o co go
prosimy. Tak samo jak mamy prezesa,
który przechodzi obok biurka asystenta
bądź asystentki i mówi: "Pani, pani
Kasiu, proszę zrobić to, panie Patryku,
proszę zrobić to i to, prawda? Więc
wykonuje nasze zadania tak naprawdę na
żądanie, no i wymaga pewnego rodzaju
nadzoru, za które jest wynagradzany taki
asystent. To jest idealne porównanie
właśnie sekretarza bądź sekretarki, bo
nie działa bez nas. Tak? A czym jest
agent AI? Agent może działać
autonomicznie. Czyli to jest przykładowo
nasz taki dyrektor naszego jakiegoś
departamentu, jeżeli my jesteśmy
prezesem i on w tym momencie rozdziela
sobie zadania, ale on odpowiada za
całość tego zadania. Nowocześnie byśmy
powiedzieli, że to jest taki PM, czyli
taki project manager, ten agent, prawda?
Działa samodzielnie. Liczy się dla nas
oczywiście tylko i wyłącznie wynik.
Jakie mamy przykłady asystentów? Moi
drodzy, jeżeli mamy konto profesjonalne
chata GPT, czy mamy konto w takim
portalu Perplexity, to w tym momencie
tam możemy sobie takiego asystenta
zrobić. Co to jest Perplexity? Bo warto
o tym wspomnieć, bo chciałem powiedzieć
taką małą anegdotkę, że w lutym zeszłego
roku zrobiliśmy pierwsze takie szkolenie
Poznaj AI i akurat w tym samym czasie
T-Mobile dało taką promocję, że wersję
profesjonalną płatną rozwiązania
Perplexity daje za darmo na rok. No i
wyobraźcie sobie, że to był czwartek. No
i nagle nagle w piątek ten portal nie
działa, bo na szkoleniu właśnie Poznaj
AI, gdzie było też parę tysięcy osób,
nagle wszyscy się rzucili, no bo to jest
1200 zł w kieszeni. Tak. No i ta
promocja, wyobraźcie sobie, że tyle razy
gdzieś tam powtarzałem to, że można z
tego T-Mobilea skorzystać, że T-Mobile
do aż do października nie wiedział,
dlaczego cały czas wysycają się te
zasoby, więc oni automatycznie
przedłużali tę promocję. To jest
niesamowita historia. O tutaj Grzechu
napisał, że Tomek co miesiąc psuł
stronkę T-Mobile. Dokładnie. więcej tak
się działo. A dzisiaj moi drodzy jak
sobie wpiszemy w Googleu
Perplexity i wpiszemy sobie PayPal to
jeżeli macie konto na PayPalu, to
możecie również odebrać 12 miesięcy za
darmo. Tylko uwaga, ta oferta zakończyła
się z 31 grudnia, ale uwaga, jeżeli
macie konto na PayPalu już od dawna, to
tutaj wiem z Discorda, gdzie też
prowadzimy różne rozmowy o sztucznej
inteligencji na naszym Discordzie SEURAK
oferta jest była jeszcze klikalna, jak
byliśmy zalogowani, więc warto to
oczywiście w tym momencie sprawdzić. A
my sobie zobaczmy, jak możemy takiego
asystenta naszego stworzyć. Czyli
idziemy sobie do chpt przykładowo i
zobaczcie jak mamy tę wersję
profesjonalną to tutaj ja mam coś
takiego jak GPTS i zobaczcie tutaj mam
jakiś różnych asystentów na przykład
mamy Darka mam mamy Wojtka analityka
giełdowego, Kordiana Drwala,
researchera bankowego, rani asystenta
radcy prawnego i tak dalej. Więc jak ja
sobie kliknę tutaj, zobaczcie,
GPTS albo kliknę sobie aplikację, to w
ogóle tutaj się okazuje, że całe nowe
spektrum możliwości zostało otwarte.
Tak, czyli tutaj już są tryby agentowe,
gotowe zbudowane aplikacje. A żeby sobie
zbudować takiego asystenta, to ja sobie
klikam exploruj GPTS. I zobaczcie, tutaj
mamy cały już taki marketplace podobny
do App Store bądź Google Play, gdzie na
razie całkowicie za darmo możemy sobie
takich asystentów
wykorzystać. Natomiast lada moment
jestem pewien, że to będzie płatne. Tak
moi drodzy, klikamy przycisk Utwórz. Czy
można prosić o zaproszenie na Discorda?
Pojawiły się taki komentarz. Ależ
oczywiście już wam wysyłam do naszego
sekurakowego Discorda. Klikam przycisk
kopiuj zaproszenie i pozwolę sobie
wkleić. Tutaj macie już zaproszenie na
Discorda umieszczone. Bardzo serdecznie
zapraszam. Tam też spotkacie oczywiście
mnie, czyli Tomka Turbę. Można do mnie
pisać w różnych sprawach. I zobaczcie,
mamy dwa sposoby budowania takiego
asystenta. Albo możemy go stworzyć
pisząc po prostu, czyli czujemy się
trochę jak Bóg, prawda? Tworzymy ze
słowa. Słowo stanie się zaraz
asystentem,
natomiast możemy go też konfigurować
bardziej szczegółowo. Co to znaczy
stworzyć takiego asystenta? Po prostu
napiszemy bardzo szczegółowego prompta,
ale być może nie mamy właśnie wiedzy na
temat jak napisać tego prompta, ale
wiemy co nasz na przykład asystent chce
robić. Więc ja mogę iść do normalnego
czata GPT i poprosić go wprost:
"Mordeczko,
napisz mi prompta do budowy asystenta
AI, czyli custom GPT, który będzie moim
wsparciem.
giełdowym
na każdy dzień.
Jak ja poproszę
go komendą
day newsy, to asystent
ma wejść na
10 najbardziej popularnych na świecie
stron giełdowych i wyciągnąć
stamtąd kluczowe komunikaty.
Następnie ma je zebrać do tabeli.
Maksymalnie pięć najważniejszych newsów
i zrobić kolumny LP,
nazwa newsa, źródło,
czyli link oraz twój sentyment do tego
do tej informacji.
neutralny
negatywny
wydźwięk giełdowy.
Okej. I zobaczcie, klikam sobie enter.
No i teraz model zrobi mi prompta. Tak,
zobaczcie, jesteś profesjonalnym
asystentem giełdowym AI działającym i
tak dalej. I zobaczcie, układa nam
prompta. Ten prompt nie musi mieć dwie,
dwóch, trzech linijek, tylko zobaczcie
jak on robi to skutecznie. Tak więc bez
problemu może w ten sposób działać.
Łukasz Osowski 2876 pyta, czy można
zrobić agenta AI, który będzie
przeglądał oferty pracy i dostosywał CV
i je wysyłał. Jakie narzędzia
rekomendujesz użyć? Oczywiście, że można
coś takiego zrobić i co ciekawe, granica
pomiędzy asystentem a agentem jest już
trochę zacierana i tak naprawdę to co my
teraz robimy, to jest dokładnie twój
przykład, drogi Łukaszu. Mianowicie,
jeżeli ja tutaj dodam, rób to codziennie
o godzinie 0900,
to w tym momencie włączy mi się tutaj
coś, co jest dodatkowym harmonogramem
realizacji zadań, czyli trochę się agent
uruchamia, bo zobaczcie w konfiguracji
mamy tutaj zakładkę właśnie schedules,
harmonogram zadań i ja mogę sobie tutaj
zadanie wykonać i zobaczcie na przykład
monitoruj najnowsze publikacje z portalu
sekurak.pl pl i on wtedy odpala się na
bieżąco. Gdzie ja mam tego prompta? Bo
chyba go sobie zamknąłem. Oczywiście
idziemy sobie tutaj. No i teraz moi
drodzy co robimy? Kopiujemy tego prompta
i ja go wklejam sobie tutaj. No i
zobacz, czekaj na komendę day newsy. Tak
najprościej jak to może być w tym
momencie analiza takich portali,
sentymentów zajęłaby mi codziennie rano
na przykład dwie godziny. A ja w tym
czasie na przykład mogę wypić swoją
ulubioną kawę, tak? No i wywalić ręce,
przepraszam, nie ręce, tylko nogi na
biurko, tak? I czekać, aż on mi
wygeneruje to uwaga, w minutę. Tak więc
w tym momencie bez problemu można
zrobić. I zobaczcie, on sobie tutaj
teraz myśli i za chwilę zacznie nam
projektować super
niesamowitego asystenta giełdowego.
Jak porównać skuteczność agentów
stworzonych przez różne AI? pyta Mariu
G5i.
Mianowicie mamy coś takiego, mój drogi
jak LM Arena AI, gdzie jest benchmark i
porównanie wszystkich modeli. Więc od
razu odpowiadając na takie pytanie,
zobaczcie, my tutaj możemy zadać sobie
odpowiedniego prompta i tutaj mamy tryb
bitwy, tak? Czyli niech się biją dwa
anonimowe modele albo porównajmy sobie
jakieś modele, na przykład Gemini i
Grocka, tak? No i możemy sobie wpisać
tutaj konkretnego yyy yyy konkretną
informację. Na przykład co wiesz o Tomku
Turbie. Tak, zobaczymy co nam tutaj
modele nam zaszaleją. Wysyłamy sobie
informacje co mówi Gemy Kight, co mówi
Grock. Zaraz się dowiemy. Tomek to jeden
z najpopularniejszych polskich twórców
gamingowych na YouTube. Fajnie, że
jestem, znaczy jestem gamerem, ale
zobaczcie co tutaj Grok, jakie
zwariowane rzeczy mówi. A co Jemy K? No
to widzicie, ukrywa przed nami. Być może
zaraz wystrzeli nam jakąś tutaj bombką.
Yyy, moi drodzy, zobaczcie. To nie jest
tak, że asystent będzie utworzony od
strzała, tak że mamy 5 sekund i zostało
wszystko stworzone. A zobaczcie, on nam
teraz proponuje cały plan działania.
Tak, to już zupełnie się inaczej buduje
asystentów niż pokazywałem to na
przykład na szkoleniach 2 lata temu.
Tylko tutaj mega profesjonalnie już do
tego podchodzi. Wszędzie tak naprawdę
jest tryb agentowych. Nie proponuję
nazwę dlaatego GPT poranny brief
rinkowy. Czy potwierdzasz? Ta,
potwierdzamy. Nie. No i on zaraz zacznie
go kompilować i tworzyć na podstawie
modelu Chat GPT oczywiście 52. Teraz
przygotuję pierwsze zdjęcie profilowe,
zrobię je od razu i potem zapytam, czy
chcesz coś zmienić. No i teraz on sobie
tutaj działa. Zobaczmy, czy on już je
utworzył.
Okej.
O i generuje nam zdjęcie profilowe.
Niestety ono jest wymagane,
więc
to jest taka ciekawostka, nie?
I zobaczcie, mamy jakąś tam fotografię,
nie ma ona dla nas większego znaczenia.
Czy chcesz, żebym coś zmienił? Nie.
Devej asystenta. No okej. No i co się
teraz dzieje? Proces tworzenia takiego
asystenta właśnie zaczął funkcjonować.
To już sobie możemy zamknąć. Co
natomiast powiedział o mnie Gemini? Tom
Turbo. A to widzę, że zacytował Maćka
Szymczaka, mojego serdecznego
przyjaciela z Securitum. O, widzę, że
spoko. Okej, okej. No jak możecie
zauważyć, odpowiedzi są zupełnie różne.
Jakbyśmy się tutaj zalogowali, to mamy
generalnie o wiele więcej opcji. Mamy
też dostęp do statystyk. Więc
odpowiadając na pytanie LM Arena AI to
jest miejsce, gdzie możecie
benchmarkować sobie modele. Czy chcesz,
żebym dodał jakieś dodatkową funkcję?
Nie styknie, bo jesteśmy na szkoleniu.
szkoleniu i teraz mordeczko nie ma na to
czasu. Okej. No i zaraz już będziemy
mieli takiego asystenta utworzonego.
Czy chcesz, żebym później ci
przypomniał, co jeszcze można do niego
dodać? Dobra, na razie nie. I zobaczcie,
tutaj się stało. Te day newsy jest jako
taka szybka podpowiedź promptowa. A
teraz zamieniamy się w twórcę i klikamy
utwórz. I zobaczcie, tu jest dokładnie
ten motyw, że możemy od razu naszego
asystenta dać do sklepu. Jeżeli mamy na
siebie świetny pomysł, yyy wiemy, że ten
asystent będzie popularny, tak, bo
stworzyliśmy jakąś potrzebę, dajmy go do
sklepu, a za miesiąc bierzmy za niego 2
dolar i nagle 100 000 pobrań mamy 200
000 doarów. Nie, można też zrobić go
oczywiście tylko dla siebie. Klikamy
przycisk zapisz. Yyy, no i w tym
momencie model już trafia na moje konto.
Mogę spokojnie sobie do niego też wejść.
I zobaczcie już nieś nie jesteśmy w
czacie GPT, tylko jesteśmy w porannym
briefie ringowym. Ja teraz klikam sobie
day newsy i on konkretnie zrobi to, o co
go prosiliśmy. Tak więc w tym momencie
oto pięć najważniejszych newsów.
Zobaczcie, przedstawił mi to w formie
graficznej. Prosiliśmy go też o tabelę,
podsumowanie, kluczowe wnioski. Czego
oczekiwać dalej? Mamy konkretne
sentymenty wskazane. Możemy zobaczyć do
jakich źródeł zerknął. I to jest bardzo
ważne moi drodzy, bo na czacie śmignęło
mi pytanie. Tomku, drogi Tomku, co
sądzisz o halucynacjach asystentów AI?
Właśnie chodzi o to, że jeżeli mówimy o
halucynacjach, czyli coś co model
zmyśla, bo nie ma wiedzy, to w przypadku
asystentów ta ten stopień halucynacji
jest mniejszy. Generalnie największy
problem z halucynacją mają modele
ogólnodostępne. Czat, GPT, Gemy, Nike,
Grock i tak dalej, te wszystkie, które
są ogólnodostępne, ale jak mamy
sprecyzowany model pod konkretne
działanie, tych halucynacji jest
zdecydowanie mniej, bo on ma wiedzę w
tym zakresie, tak więc
prawdopodobieństwo jest zupełnie wtedy
mniejsza.
Anna Paskoń, Pasokoń, przepraszam, pyta,
czy agentów można stworzyć również w
wersjach darmowych. Można natomiast one
są wtedy w ograniczonej postaci.
Oczywiście na szkoleniu narzędziownik AI
mamy bardzo dużo też narzędzi darmowych.
Tam też rozpatrujemy takich asystentów.
Podpowiem jako taki mały spoiler. Zobacz
sobie Jasia AI, a dokładnie mówiąc
jan.Aai, AI Jan AI, który jest świetnym
asystentem, do którego możesz mieć
dostęp bezpłatny, dedykowany asystent,
nie z czata GPT, więc można iść w tą
stronę. Czyli moi drodzy przykład
asystentów.
Mamy naszą kolejną umiejętność. Na
narzędziowniku robimy gemy, projekty,
pamięć. Zerkamy do coilota studio.
Ósemka, czyli mamy prompt engineering,
mamy znajomość i budowa asystentów. Tak,
to są bardzo ważne umiejętności, nie?
Jak ósemka, automatyzacja zadań, coś z
czego AI słynie, czyli daje nam dużo
czasu. Automatyzacja. Tylko taka drodzy
moi ciekawostka, automatyzacja, czyli
wykorzystanie narzędzia między innymi
N8N, Make albo zapier. To nie jest tak,
że te narzędzia nagle pojawiły się ze
sztuczną inteligencją, tylko moi drodzy
te workflowy były na długo przed
sztuczną inteligencją. No ale faktycznie
dodanie różnych dodatków spowodowało, że
dzisiaj modele LLM w tych narzędziach
działają. I mamy coś takiego faktycznie
jak N8N czy też Nathan.io. IO. Jeżeli ja
się zapiszę do takiego narzędzia,
tutaj jestem zalogowany, muszę się tutaj
wprowadzić.
To w tym momencie, moi drodzy, tutaj
mamy na 14 dni dostęp za darmo i możemy
zobaczyć, co to jest ten workflow, jak
się go buduje. No i przykładowo tutaj
mam taki stworzony workflow. Tu już mamy
połączenie asystentów i agentów w takich
różnych klocuszkach. Co te klocuszki
robią? To jest pewien sposób na
oprogramowanie jakiejś funkcjonalności,
którą nie jesteśmy w stanie na ten
moment dobrze zrobić z prompta albo yyy
albo mamy podłoże inżynieryjne. Tak?
Dlaczego to będzie ważna umiejętność? Bo
nie wszystko da się generalnie z prompta
zrobić. O tym trzeba głośno mówić i
pewne rodzaje integracji, na przykład
czytaj mi maile z Gmaila albo postuj mi
posty na LinkedInie czy na Instagramie i
wygeneruj mi zdjęcie, to musimy mieć
bardzo dużo połączeń z innymi
aplikacjami i to możemy zrealizować
między innymi takimi narzędziami jak
N8N. I o co w tym wszystkim chodzi?
Każdy klocuszek ma tutaj jakąś swoją
rolę i jest narzędziem integracji z
jakimiś różnymi aplikacjami. Przykładowo
możecie zauważyć tutaj na przykład
rozmawiamy z Google Sheets, czyli
Excelem od Googlea. Tutaj coś
komunikujemy, jakiś raport na
komunikator Slag, bardzo popularny
komunikator służbowy. No i tutaj ten
flow, który widzicie, ta automatyzacja
powoduje postowanie
linków na LinkedInie, na podstawie
Google Sheeta, którego moglibyśmy sobie
tutaj spokojnie dopiąć, nie? No dobra,
Tomek, ale w jaki sposób ja mam
wiedzieć, który klocek co oznacza? No
tutaj tak, tutaj jest potrzebna pewna
wiedza inżynieryjna rzeczywiście i
zagłębienie się w dokumentacji. Więc to
jest oczywiście smaczek dla osób, które
chcą przyjść na narzędziownik AI jako
deweloperzy, jako programiści, jako
administratorzy, jak najbardziej. Ale
uwaga, osoby nietechniczne, czyli na
przykład humaniści, osoby
nieinżynieryjne, nie zostają z tym na
lodzie, bo ja mogę sobie dzisiaj w
narzędziu N8N kliknąć Utwórz workflow i
zobaczcie, ja mogę tutaj na podstawie
prompta zbudować sobie taki flow. No i
niech będzie ten flow, który mamy w
prezentacji, czyli chcemy tworzyć
specjalistę od marketingu. Tak? Czyli
zróbmy sobie jeszcze coś takiego.
Przygotuj mi, proszę prompta do N8N,
który utworzy workflow
dla i wklejmy sobie tę zawartość
marketing media, czyli AI Studio
Content.
Czy N8N może zautomatyzować Google Sheet
z SMS API lub Telegramem? A no właśnie
mamy osoby mocno techniczne dzisiaj na
szkoleniu i tak od razu odpowiadam, że
bardzo częsty taki workflow, którym się
wszyscy chwalą na TikToku czy
Instagramie, to jest połączenie z
Telegramem. Dokładnie tak. Zobaczcie, a
tutaj mamy
nasz prompt i ten prompt jest budowany
już inaczej z racji, że ja wskazałem, że
to jest to narzędzie do automatyzacji
N8N. to on tutaj nam to przedstawia w
formie takiego ustrukturyzowanego jasona
byśmy to nazwali, czyli taki klucz i
konkretny parametr, prawda? I to znowu
nie jest mały prompt, tak? W zasadzie
jak prompt ma być dzisiaj porządny, to
ja wam pokażę jak wygląda porządny
prompt. Mianowicie na stronie securitum.
Wycieczka hhtml macie bardzo fajny
prompt. Uwaga, za niedługo zbliżają się
walentynki. Jeżeli chcecie zabrać swoją
drugą połówkę na w jakieś fajne miejsce,
polecam na przykład luksusową podróż do
Peru. No ale jeżeli nie macie wiedzy w
tym zakresie, no to można stworzyć sobie
takiego prompta. To, co tu widzicie, te
dwie strony A4, to jest de facto prompt.
Jesteś doświadczonym planistą
luksusowych podróży i ekspertem od
wyjazdów do Peru. Nadaliśmy rolę tak
naszym promptem.
Zaplanuj dla dwóch osób szczegółową
14dniową wycieczkę w lutym 2026. Dwie
osoby dorosłe. Co trzy dni zmieniamy
lokalizację.
Hotele wyłącznie klasy premium. Ocena co
najmniej 5,5 8,5 na booking. Loty, linie
lotnicze, restauracje. Unikaj
restauracji, gdzie głównym daniem są
świnki morskie. Zaplanuj plan dnia na
każdy dzień. Bezpieczeństwo praktyczne
wskazówki. Giga prompt jest zrobiony.
Jakbyśmy mieli robić ten research sam,
samemu, no to 3 dni roboty. Tak. Prompta
też musieliśmy napisać w 10 minut. No
ale to jest 10 minut, a nie 3 dni
roboty. Idźmy na przykład do Gemini.
Przełączmy się znowu na wersję płatną.
No i moi drodzy, aj, za szybko się, za
szybko się przełączyłem. Jeszcze raz
wkleja.
A jeszcze raz idziemy do wersji płatnej,
tylko muszę zaczekać. Okej, teraz
wklejamy to jako nasze takie gigantyczne
zadanie. Ja tutaj klikam coś takiego jak
głębokie rozumowanie po to, żeby
zabezpieczyć też ten materiał przed
halucynacjami. O tym będziemy jeszcze
sobie mówić, jak będziemy mówić o
pierwszej umiejętności, która może być
kluczowa. Natomiast teraz pokazuję wam,
że model znowu nie odpowie nam w 10
sekund, ani nawet w 2 minuty, tylko
zrobi bardzo głęboki research, ale to za
chwilę. Y, zaraz sobie do tego
oczywiście wrócimy. Patrząc na naszą
automatyzację,
my sobie bierzemy tego naszego prompta,
który już się pewnie skończył i możemy
go w tym narzędziu N8N też yyy
wprowadzić. Tylko zwracam uwagę, że
wersja darmowa ma tylko 50 kredytów
dostępnych, więc może być tak, że nie
wystarczy. Tak, natomiast uwaga na
narzędziowniku instalujemy sobie to
rozwiązanie lokalnie na komputerze. No i
wtedy bez problemu taka integracja
odbywa się całkowicie za darmo. Tak, bo
tutaj płacimy 20 $ar miesięcznie, a yyy
jeżeli chodzi o instalację na komputerze
lokalnym czy też firmie, no mamy darmową
z pewnymi ograniczeniami, ale nie w tym
zakresie. No i zobaczcie, on sobie też
uruchomił tutaj tryb agentowy, czyli
rozważa wszystkie te zadania, które musi
wykonać. No i zaraz, jeżeli starczy nam
kredytów, to będzie nam robił klocuszki.
Oczywiście, że tak. Co się dzieje tutaj
z naszym
głębokim rozumowaniem? On nam proponuje
tutaj poszczególne punkty, które sobie
zaplanował. Jeżeli one nam pasują w
planie, to dopiero teraz zaczynamy
wyszukiwanie. I to jest właśnie to
podejście human in the loop, prawda?
Czyli człowiek w procesie decyzyjnym
modelu. I zobaczcie, on tutaj będzie
wyszukiwał tych linków, zrobi nam ze 100
albo 200. No i po chwili będziemy mieli
oczywiście konkretną odpowiedź. Jeżeli
chodzi o workflow automation, tutaj jak
możecie zauważyć też musi to chwilę yyy
potrwać i nie będzie z tym żadnego
problemu. Benowy.pl pyta, czy możesz
rozwinąć ograniczenia N8N lokalnie.
Mówiąc bardzo technicznie, chodzi o
pewne ograniczenia API. Nie do
wszystkiego i nie wszystko jesteśmy w
stanie też zmonitorować. Natomiast można
też wersję lokalną sprowadzić do wersji
płatnej. Jeżeli zastosowanie komercyjne,
to wtedy można też to oczywiście zrobić.
Emanuel Woszczyk 2816 mówi, że
postawienie N8N na w kontenerze dokera
to 3 minuty. Dokładnie właśnie tak jest.
Okej, czyli widzicie nasze procesy tutaj
trwają. Y, Gemini już przeanalizował 66
witryn odnośnie naszej romantycznej
podróży do Peru na dwa tygodnie i lada
moment, a w zasadzie jeszcze na pewno za
parę minut będziemy mieli konkretny
konkretny raport. Co ciekawe, uwaga, jak
ja bym podpiął tutaj taką aplikację
Stripe razem z moją kartą płatniczą albo
z tym pierścieniem władzy, który wam
wcześniej pokazywałem, to w tym momencie
ja bym mógł do niego napisać: "Drogi
agencie, kup mi tą wycieczkę od razu,
nie? i kup mi też bilety lotnicze. Już
104 witryny przeanalizowane, a
zobaczcie, dopiero jesteśmy w 1/4
głębokiego rozumowania,
więc y
no chwilę to potrwa. Pojawiło się
pytanie o wymagania sprzętowe do N8N.
One są minimalne. I zobaczcie, tak
naprawdę już po trzech minutkach mamy
ten flow tutaj przygotowany. Oczywiście
tam gdzie widzimy te czerwone takie
kropeczki to wymaga od nas pewnego
uzupełnienia albo odpowiedzi na
dodatkowe pytania albo wskazanie
integracji, czyli musimy się przykładowo
zalogować do tego LinkedIna. No bo
jeżeli chcemy to publikować na
LinkedInie, no to oczywiście musimy mieć
do tego konto, prawda? Więc jak
najbardziej już mamy taki schemat gotowy
i wcale nie musimy się na tym znać. Tak,
oczywiście jeżeli się znamy to na pewno
zrobimy to bardziej optymalnie i
bezpieczniej, ale jesteśmy w takim
momencie historycznej, że faktycznie
humaniści, nie inżynierowie spokojnie
mogą działać. Ktoś się tam zaśmiał osoby
nieinżynieryjne. Nie, ja nie jestem w
tym trendzie, tylko nie wiedziałem jak
nazwać humanistów, ale właśnie mój model
LLM w głowie, który mam stwierdził, że
po prostu powiedz humaniści. Tak więc w
tą stronę oczywiście
idziemy. Więc automatyzacja na pewno
jest to umiejętność, którą warto będzie
znać. Na narzędziowniku, tak jak
wspomniałem, robimy lokalną instalację
Nightena, robimy Makea, zapiera
Stunderbita, a także robimy lokalne
generowanie obrazów, czyli Confi UI, a
także znajomość protokołu MCP i cloud
code. To dla osób, które są deweloperami
na pewno wiedzą co mówię. Okej, moi
drodzy, miejsce siódme, agenci AI i
agenci agentowi, to się tak dzisiaj
nazywa. Agenci AI dzisiaj są wszędzie.
To był największy hype 2025 roku, jak
budować własnego agenta AI, prawda? nie
asystenta, tylko agenta, który działa
autonomicznie, czyta maile, wprowadza
nam dane do kalendarza, realizuje trudne
zadania programistyczne,
pisze nam rozprawy doktorskie i tak
dalej. Prawda? Agenty AI, mocne, trudne
zadania. Dlaczego mówię agenty AI? No z
tego względu, że jest to postać
bezosobowa. To nie są agenci, tylko
oczywiście agenty.
No i moi drodzy, kończa się, kończy się
era modeli LLM.
O Tomek, co ty mówisz? A ja dopiero z
tym zaczynam. Nie, nie ma najmniejszego
problemu. Moi drodzy, pojawiają się
rozwiązanie głębokiego rozumowania,
czyli modele LRM,
large reasoning models, które tak
naprawdę realizują wiele zadań od razu.
Tak, to nie jest tylko generowanie,
wykonanie jednego zadania, tylko wiele
zadań realizuje się symultanicznie,
równocześnie. Tak, my sobie agentowi
ustalamy jakiś cel. On sobie to planuje,
dekomponuje zadania na mniejsze zadania,
wybiera swoje narzędzia, które do tego
wykorzysta. No i tutaj napisane
egzekutor, ale oczywiście chodzi o
wykonanie tego zadania. Sam obserwuje,
sam ocenia, czy zrobił to dobrze i wraca
do planowania ewentualnie, żeby się
poprawić. Jakie mamy przykłady rozwiązań
agents? na przykład rozwiązanie manus,
które dzisiaj głównie służy do
programowania na przykład stron
internetowych, ale mamy niesamowite
narzędzie, które od początku jest moim
ulubionym konikiem, czyli Taskate,
rozwiązanie biznesowe bardzo mocno.
Jeżeli chodzi o manusa, zobaczmy sobie,
co ten manus tutaj potrafi. I
przykładowo kiedyś ktoś na
narzędziowniku, bo wiecie ja taki hojrak
mówię, manusz zrobi prawie wszystko, bo
uruchomi tryb agentowy przy dobrym
prompcie zrobi wszystko. No i
słuchajcie, słuchajcie akcji. Ktoś
kiedyś na narzędziowniku mi powiedział,
niech zrobi animację układu słonecznego
w przeglądarce.
Ja mówię,
o, to będzie trudne zagadnienie, ale
zrobiliśmy jakiegoś prompta innym llmem.
No i moi drodzy po paru minutach
dokładnie mieliśmy układ planetarny i
dlaczego to zadanie od razu się mogłem
go nastraszyć. No bo orbity funkcjonują
zgodnie z jakimiś wzorami prędkości
poruszania się. Sam research na temat
jak funkcjonuje nasz układ słoneczny
zająłby nam miesiąc. Tak? model
rozpracował sobie to w parę minut i
następnie zaczął to programować w taki
sposób, żeby to było dostępne w
przeglądarce. Dodatkowo mamy całkowity
wpływ na to jak to działa, tak? Gdzie
dokładnie jak orbity się poruszają.
Oczywiście zwracam uwagę, że orbitalne
poruszanie się to jest spirala wprost,
bo czas jest wartością w tym momencie
nieskończoną. No i zobaczcie, że mamy
tak naprawdę to rozwiązanie gotowe. Nie
pokazuj orbity, nie pokazuj. to sobie
możemy wszystko przełączać. Pokazuj yyy
labels, tytuły i tak dalej, nie? Czyli
jak my Manusa poprosimy o cokolwiek, to
on nam to zrobi. Zobaczcie przykład.
Yyy, chcemy stworzyć jakąś grę na wzór
Minecrafta. Yyy, dlaczego ja to nie
robię bezpośrednio przy was? Bo to
będzie trwało na przykład 20, 30 minut.
Nie, w ten sposób to może wyglądać.
Natomiast jak ja sobie zobaczę jakaś
gra, którą mi tu nazwał Voxel Craft.
Kliknij przycisk start i zobaczcie,
świat jest w locie generowany. Ja w
ogóle nie muszę ściągać tego na dysk,
tylko wszystko się dzieje na serwerach
po stronie po stronie operatora tego
tego agenta, tego rozwiązania AI.
Oczywiście wpływa to na szybkość,
potencjalnie wpływa to na prywatność, o
tym trzeba oczywiście powiedzieć. No ale
moi drodzy, jest coś w tym niezwykłego,
że dzisiaj świat humanistów może sobie
takie rzeczy stworzyć, nie? I jakbym
chciał, to ja mogę kliknąć po prostu
publikuj. Oczywiście nie byłoby to super
profesjonalne pod jakimś dziwnym linkiem
manus i im coś tam coś tam. No ale w tym
momencie bezpośrednio
może to w ten sposób funkcjonować, nie?
Tutaj widzę, że to był chyba jakiś
skomplikowany task. Poczekajcie. Yyy,
zróbmy sobie yyy gdzieś tutaj miałem
taką prostszą gierkę y żebyśmy nie
tracili na to super czasu. Yyy
rozworzenie aplikacji dwuwymiarowa gra
platformowa. O, coś tutaj na szybko z
jednego prompta jest. Tak. Czarodziej
matematyczny. Okej, pokaż mi czy ty mi
już ją skończyłeś. rozpocznij grę i
zobaczcie tutaj coś na zasadzie
Castylvanii. Żeby dojść do tego gościa,
ja muszę rozwiązać jakieś zadanie
matematyczne, nie? Takie rzeczy dzisiaj
można robić, ale co więcej nie trzeba
mieć licencji na takiego manusa, tylko
uwaga, można iść do Geminia, do modelu
od Google i tutaj jest coś, co po prostu
rozwala system. Nieważne jaki task
chcecie wykonać, mamy tutaj taką opcję
jak widok dynamiczny, czyli Google Labs.
I pamiętacie, zrobiliśmy sobie tutaj
informacje o fishingu, nie? No to
zobaczcie, ja sobie biorę tego prompta i
chciałbym to zrobić y żeby ekspert mnie
uczył o fishingu w tym Google Labs. I
przełączam się na ten tryb, na widok
dynamiczny, klikam prześlij, to tu już
nie będzie zrobiony tekst, tak? Tylko on
dla mnie zbuduje całą aplikację do nauki
cyberbezpieczeństwa. do nauki fishingu.
Tak, projektuje nam cały framework i
znowu za parę minut będzie tutaj gotowa
informacja. Poczekajcie, pozamykamy
trochę tych rzeczy, bo wychodzi na to,
że mamy ich tutaj bardzo dużo. Ach,
zamknąłem sobie chyba tego Geminaja.
Jeszcze raz przepraszam, przepraszam, za
szybko tutaj działam. Widzę, że mamy
przekroczone ponad 2000 osób na liveie.
Rewelacja. Jeszcze raz to klikam. Yyy i
moi drodzy przychodzi yyy moment, że y
powinniśmy sobie yyy już trochę rzeczy
podsumować. Mianowicie na narzędziowniku
budujemy takiego agenta AI od zera. Nie
przez przeglądarkę, tylko robimy to
lokalnie, tak jakbyśmy to mieli zrobić
yyy w naszej y firmie. I moi drodzy,
czas na y malutką przerwę. I ja w tym
momencie muszę wspomnieć o tym, że
zapraszam was na narzędziownik AI na
stronie aisekurak.pl.
Możecie dzisiaj skorzystać z rabatu
-75%.
On będzie aktywny do końca dnia, do
poniedziałku tylko i wyłącznie. To jest
ten sam rabat, co był na Black Week. Ale
uwaga, dla osób, które specjalnie
dzisiaj poświęciły swój wieczór,
piąteczek piątunio, na spotkanie z nami.
Jeżeli złożycie zamówienie dzisiaj to
otrzymacie ekstra nagranie o narzędziach
AI od Krzyśka Wosińskiego, jednego z
naszych trenerów oraz dodatkowo na
narzędziowniku zrobimy sobie ekstra 14
sesję, specjalną sesję pytań i
odpowiedzi, odpowiadając tylko na wasze
dedykowane pytania. Więc ja teraz
pozwolę włączyć moją muzykę, bo jestem
też kompozytorem, więc puszczę wam taką
fajną muzyczkę, zostawię was z takim
banerem i widzimy się o 20:005,
czyli pokażę wam teraz ten pakiet
ekstra. Zapraszam na stronę aisekurak.pl
i uwaga, muzyka. Do zobaczenia za minut
>> [muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
>> He.
[muzyka]
[muzyka]
[muzyka]
>> [muzyka]
[muzyka]
>> Hello, hello. Jesteśmy z powrotem.
Wielkie dzięki. Mam nadzieję, że
muzyczka wam się spodobała. Pojawiło się
bardzo dużo pytań dla osób. Tomku,
wujeczku, mordeczko, co z osobami, które
już kupiły narzędziownik? Moi drodzy,
tutaj nie ma w ogóle o czym mówić. Dla
osób, które lojalnie już wcześniej
kupiły narzędziownik, tak samo ta sesja
będzie dla was dostępna. Natomiast po
poniedziałku już dla osób, które wtedy
kupią narzędziownik, to już ten rabat
odpowiednio będzie tam spadał. No i one
nie dostaną dostępu do tej sesji, chyba
że bardzo wyjątkowo yyy yyy poproszą,
ale no to jest kwestia zawsze
indywidualnie do ustalenia. Natomiast
osoby chylę czoła. Wszyscy, którzy do
tej pory y kupili, to wielkie dzięki za
zaufanie. Oczywiście was też na te
wszystkie dodatkowe bonusy
zapraszamy.
Czy mam kanał, gdzie tworzę taką muzykę?
Tak, po moim starym nicku rzeczywiście
można mnie znaleźć, czyli Evil Cat. yyy
na YouTubie. Na YouTubeku znajdziecie
yyy tam moje trzy akty już skomponowane.
To jest muzyka retro Heavy Dark Sy yyy
taką, która się specjalizuje. Ale
lecimy, moi drodzy dalej yyy yyy ze
szkoleniem. Mianowicie na miejscu
szóstym mamy coś, co się nazywa
ragmasterem.
Widać tendencje generalnie, a w tym roku
mniej więcej w 50 wdrożeniach
uczestniczyłem w różnych firmach,
korporacjach i tak dalej, że jest
ogromna potrzeba na stworzenie
asystentu, ale w firmie. Co to znaczy w
firmie? że tworzymy model lokalny, bo
możemy taki zainstalować na serwerze
dostępny dla pracowników i wtedy ryzyko
wycieków jest minimalne. A tych wycieków
mamy dużo w sztucznej inteligencji i tak
samo problem halucynacji, ale znowu jak
zasilić taki model, żeby on właściwie
czytał dokumenty z naszej firmy.
Przykładowy scenariusz do wykorzystania.
Mamy na przykład dział prawny w firmie,
prawda? I przez dział prawny przewinęło
się w ostatnich latach 1000 na przykład
umów z kontrahentami, prawda? My ten
model lokalny bezpiecznie zasilamy tymi
umowami. On się tego uczy właśnie w
takim podejściu ragowym i to powoduje,
że od teraz jak ktoś się zapyta o mamy
takiego nowego kontrahenta, który
przychodzi ze swoją umową, sprawdź
proszę czy ta umowa jest zgodna z
naszymi uwarunkowaniami. No i wtedy na
przykład wychodzi, no generalnie umowa
jest okej, ale na przykład kontrahent za
niskie kary sobie policzył. No i model
nam odpowiada w sekund 10, a nie na
przykład po awertowaniu trzygodzinnym.
jakby to mogło mieć miejsce. Więc
podejście ragowe na pewno to będzie hit
w kolejnych latach, bo już jest hitem,
nie? To jest oczywiście wiedza już
trudniejsza, specjalistyczna. Natomiast
jak faktycznie rak działa? Moi drodzy,
użytkownik w takim modelu zadaje jakieś
pytanie i mały model ragowy, jeszcze nie
ten duży llm zerka do czegoś, co się
nazywa bazą wektorową, gdzie są właśnie
umieszczone te nasze dokumenty. I na
podstawie wiedzy o tych dokumentach on
dopiero idzie do modelu LLM. LLM sobie
czyta ten dokument, bo już wie jaki ma
czytać i nawet LLM wtedy nie powinien
iść do swojej bazy, tylko wraca z
odpowiedzią właśnie z tego dokumentu,
nie? No to w Polsce są już takie
wdrożenia, już to powoli idzie,
aczkolwiek to musi trwać w czasie. To
nie jest tak, że wdrożymy jednego dnia
już wszystko działa. Nie, nie, nie. To
trzeba wszystko dobrze wpasować. Co my
robimy na narzędziowniku? Całe szkolenie
jest temu poświęcone. Budujemy sobie
lokalny model na komputerze. I moi
drodzy, ja już to mam zbudowane, bo to
by nam generalnie zajęło dwie bądź 2 i
pó godziny, ale ja wam powiem jak to
można zrobić i możecie to zrobić już
sami. Idziecie sobie do strony
allama.com,
nawet jak macie ten komputer, który
macie teraz w domu, na którym działacie.
I tutaj jest coś takiego, jak jesteśmy
na głównej stronie Allamy, to my chcemy
sobie pobrać to narzędzie na komputer.
Ściągamy przykładowo na Windowsa. Jest
instalator, klikamy dalej, dalej, dalej.
I co my z tego instalatora mamy? A no
mamy coś takiego. Uruchamia się taki
interfejs, tak jak tu widzicie i dla
osób, które były na poprzednim
narzędziowniku, to teraz jest wow yyy e
oczy, bo ten interfejs to jest nowość,
więc na tym narzędziowniku to też będzie
nowość, że można sobie o lamą już tutaj
działać w tym interfejsie. Jak widzicie
ten interfejs to jest dokładnie to samo,
co w różnych modelach dostępnych przez
przeglądarkę. Ja tylko tutaj muszę sobie
pobrać właściwy model. Jaki to jest
model? A no taki, który oczywiście
będzie w miarę działał na moim
komputerze, ale jego moc obliczeniowa,
którą potrzebuję determinuje generalnie
czy ten model jest mądry czy nie za
bardzo. Więc im mamy mocniejszy
komputer, najlepiej jak mamy komputer
gamingowy, albo jeżeli stać nas na
przykład na komputer serwerowy z kartą
graficzną na przykład A1, czyli taki
komputer za 100 000 zł, to wtedy
generalnie większość modeli uruchomimy.
Ale na narzędziowniku dowiemy się, że ta
ilość z literką B determinuje trochę, że
możemy model uruchomić albo nie. A
konkretnie powiem wam nawet dzisiaj
zdradzę wam ten sekret. Jeżeli mamy na
przykład 30B, to oznacza, że model jest
o precyzji 30 miliardów parametrów,
czyli całkiem nieźle, ale żeby go
uruchomić potrzebujemy około 32 gig
RAMu. To jest mniej więcej przelicznik 1
do1. No więc moi drodzy, jeżeli mamy
super modele, które mają na przykład 480
milionów parametrów, to potrzebujemy pół
TB pamięci RAM. nie jesteśmy w stanie to
uruchomić na normalnym komputerze, na
serwerze już tak. Albo też się uczymy o
tym jak to uruchomić z punktu widzenia
internetu, czyli jako model inferencyjny
po prostu w chmurze, ale chmurze
prywatnej. Tak to wszystko robimy. Co
tutaj się dzieje moi drodzy? Jak mamy
taką ollamę, to my możemy sobie tutaj
pracować z modelem i on normalnie będzie
działał. Zobaczcie w tej chwili jak
napisałem pierwszego prompta to model
się nazywa Gemma 3 o wielkości 1
miliarda parametrów zostanie wczytany.
Pierwsze to jest takie dłuższe dłuższe
uruchomienie. Mniej więcej trwa minutę i
za chwilę normalnie możemy promptować.
Nie idzie to nigdzie do internetu i nikt
się o tym nie dowiaduje. Co my tutaj
promptujemy. Możemy wrzucić swoje własne
dokumenty i wszystko możemy zrobić co
chcemy, bo to nigdzie tak naprawdę nie
trafia. Chcemy, żeby model wyszukał nam
coś w internecie. Ale żeby nie wysyłał
tego do żadnego, żadnego, żadnej firmy
typu Open AI albo Chin, to na przykład
mamy model KVEN3, który jest modelem
chińskim, ale włączenie parametrów
wyszukaj w internecie spowoduje, że on
korzysta z przeglądarki, a nie wysyła
tego do internetu do na przykład rządu
chińskiego, prawda? Więc spokojnie można
działać w modelach lokalnych i jak
możecie zauważyć, to działa szybko i
dobrze. To jest komputer gamingowy, ma
32 gig ramu, tak? No ale dzisiaj takie
komputery potrafią kosztować
5000 zł. Jak mamy troszeczkę więcej
pieniążków, na przykład nie kupimy psa
AI za 18 000, tylko mega porządny sprzęt
albo na przykład sprzęt makowy, no to
wtedy bez problemu działamy. Ale
jakbyśmy chcieli to zrobić w pracy, to
nie jest wystarczające. Do tego
potrzebujemy mieć doinstalowane coś, co
się nazywa Open Web UI i to jest
interfejs webowy dostępny dla
pracowników. Żeby to zrobić przykładowo
na Windowsie to potrzebujemy mieć
kontenery. Wiem, że mówię teraz bardzo
skomplikowane rzeczy, ale wiem, że na
sali wśród 2000 osób mamy też takich
odbiorców, którzy łakną tej wiedzy, bo
generalnie co edycję, a to będzie już
siódma edycja, właśnie bardzo dużo
takich osób jest, więc ja liznę tylko
temat, pokażę wam o co chodzi z tym
ragiem. Teraz jesteśmy zainstalowani w
modelu lokalnym właśnie z tym dodatkiem
Open Web UI w kontenerze. I tutaj
zobaczcie o tym świadczy adres. Jeżeli
zamieniłbym local host na adres IP co?
Łączą się do tego po prostu nasi
pracownicy, tak? I mamy coś takiego
tutaj jak obszar roboczy. Jest zakładka
wiedza. Zobaczcie, że można tutaj
działać także po polsku, nie? I co my
tutaj robimy? Tu właśnie tworzymy tego
naszego raga, czyli budujemy agregator
bazy wiedzy. na przykład baza działu
księgowego.
Tutaj możemy jakiś opis jej dać.
Nadajemy jej status tylko i wyłącznie
prywatnej po to, żeby tylko odbiorcami
była grupa księgowych. No tutaj akurat
wybiorę zarząd, ale normalnie była to
grupa księgowych i możemy tak albo
dopisywać pliki, albo możemy tylko i
wyłącznie do odczytu je wziąć. Ja dam,
że chcę agregator mieć, do którego mogę
pisać i zobaczcie, ładuję tutaj moje
dokumenty firmowe. Co więcej, ja mogę
synchronizować katalog. Czyli jeżeli na
przykład pani Zosia, która odpowiada za
umieszczanie umów w intranecie, no nie
będzie wiedzieć jak to skomplikowanie
administrować i tak dalej, możemy jako
jako administratorzy przygotować jej
specjalny folder, do którego będzie
wrzucała pliki jak zawsze, a one będą
się synchronizowały jako nasza baza
wiedzy do modelu LLM, nie? Teraz
wybieram sobie prześlij pliki. Załączam
tu jakieś przykładowe dokumenty, one się
wczytują i to już, moi drodzy, jest baza
wiedzy. Tak, o, te pliki zostały
załadowane do bazy wektorowej i ja już
mogę sobie spokojnie tutaj działać. I
teraz wybieram sobie model, który
zdefiniowałem na przykład jako KWEN
marketing i normalnie tutaj sobie
promptujemy. I wiecie co się
niesamowicie sprawdza, bo ktoś zadał
pytanie, który model jest dobry, a który
nie w benchmarkingu. Jak w firmie robimy
takie wdrożenia AI, to my też nie wiemy,
czy model Gemma, czy model GPT OSS, czy
model KWEN, czy model FIe i tak dalej.
Deepsek będą dobre. Więc jest coś
takiego, moi drodzy jak arena modeli.
Jak sobie przejdziemy do panelu
administracyjnego i mamy coś takiego jak
oceny, to tutaj zgodnie z rankingiem
elo, czyli wygrywa ten, który ma
najwięcej lajków, możemy zdefiniować
takie modele. I zobaczcie jakie
wdrożenie się wtedy robi proste. Na dwa
miesiące do działu marketingu dajemy
grupie A model na przykład Mistral, a
dla grupy B dajemy model Bielik. i one
oni tam lajkują albo dislajkują yyy
odpowiedzi modelu i ten, który będzie
miał najwięcej lajków będzie wdrożony.
Czyli popatrzcie, pracownicy realnie
decydują o swoich potrzebach, o tym, że
będzie im się lepiej z tym pracowało. To
jest interfejs Open Webi, który działa
fantastycznie. Jak wyglądają
zabezpieczenia takiego systemu? To jest
wszystko zależy od tego, co mamy pod
spodem. Ja oczywiście rekomendowałbym
Linuxa normalnie z kontenerami, ale
wszystko odpowiednio ograniczone.
Oczywiście zmierzasz do tego, czy możemy
mieć tutaj użytkowników. Oczywiście, że
tak. Użytkowników sobie przypisujemy,
tworzymy im rolę. Tworzymy także im
konkretnie grupy po to, żeby jedna grupa
nie mogła promptować z bazy wiedzy innej
grupy, bo może się zdarzyć, że pracownik
jakiegoś działu zapyta jakie jest
wynagrodzenie zarządu. Jeżeli te
dokumenty są załadowane, mamy wewnętrzny
wyciek. To jest bardzo słuszne
oczywiście pytanie i wiecie co można też
kontrolować. Można kontrolować wszystkie
prompty, które użytkownicy wprowadzali,
ale oczywiście zgodnie z dobrą praktyką
powinniśmy ich o tym poinformować.
Moi drodzy, wdrożenie lokalne,
przykładowo Allama instalujecie dzisiaj
na komputerze i jest na narzędziowniku.
Jeszcze sobie robimy LM Studio, anything
LLM i Lama CPP. LM Studio też możecie
zainstalować sobie od ręki dzisiaj i już
wam będzie wszystko, wszystko działać,
nie? I na narzędziowniku robimy pełną
konfigurację na firmie. Dla firmy, nie?
To już było. Przepraszam.
Miejsce piąte. Aeo, Go. Co? Jakie AO i
geo? Co to w ogóle znaczy? Jak ja to
zobaczyłem wierszy pierwszy raz, to
sobie pomyślałem, jakieś jakieś piosenka
z jakiegoś plemienia afrykańskiego i tak
dalej. No okazuje się, że Geo nie ma nic
wspólnego z geolokalizacją. Tylko drodzy
państwo, moi mili, z piątkowego wieczoru
to jest nowy rodzaj pozycjonowania. To
jest o Neo Geo pisze Largo Sun. To była
świetna konsola. Ostatnio nawet grałem w
Kadilaki i dinozaury, bo uwielbiam i to
jest mega, mega żółwik dla ciebie,
kolego bądź koleżanko Largo Sun. Ale
wracając, to jest nowy rodzaj
pozycjonowania. Drodzy państwo, pojawił
się taki
problem, że mamy coś takiego, że mamy
asystentów głosowych, z którymi
rozmawiamy dzisiaj. Siri, Alexa, Gemini,
Chat GPT, mnóstwo innych Sezame i tak
dalej. I mamy też generative engine
optimization, czyli cytowania przez
modele LLM. Zwróćcie uwagę, że bardzo
często dzisiaj jak coś wyszukujemy, to
my nie wchodzimy już na strony
internetowe, tylko działamy przez LLMA.
Co to oznacza? Że pojawiła się technika
zero click searches, czyli wyszukiwanie
bez klikania. No i co w takim razie
zrobić, żeby model LLM pozycjonował nas
jako właściwe źródło informacji? Tak jak
sobie przejrzymy taką fajną stronę,
która już od kilku lat działa, to mamy
między innymi taką stronę cały rok w
wyszukiwarce Google 2025. I moi drodzy,
możemy zobaczyć w różnych kategoriach,
co się faktycznie działo, co działało,
jakie statystyki. Jeżeli ktoś z was
pracuje przy marketingu albo w ogóle
chce rozwijać swoją działalność albo
siebie, to jest złote źródło informacji.
To co tu Google udostępnia, a udostępnia
wszystkie wyszukania, jakie były na
świecie. Oczywiście w formie statystyki,
nie? No i stąd się dowiadujemy, że
wyszukiwalność spada, tak? Że pojawiają
się modele LLM, które wyszukują za nas.
No i w związku z tym jaki jest nowy
paradygmat tego pozycjonowania? Tak, no
mamy coś takiego. Klasyczne SEO, to był
jakiś ranking na stronie internetowej,
wypełnianie metatagów, contentu,
klikalność i tak dalej. No i to
generowało nam ruch, prawda? W Google
Analytics mogliśmy to sobie monitorować
bądź innych narzędziach. Aeo, Geo
potrzebujemy, żeby model wiedział gdzie
szukać informacji. Musi być jakaś
wzmianka o tym w modelu. No i na
podstawie relacji zaufania takiego
modelu ze stroną internetową, on nam
proponuje to do odpowiedzi albo w ogóle
wyszukuje na tej stronie. Tak, my mamy
na to realny wpływ. Pojawiło się coś
takiego od Googlea jak model EEAT.
Co to oznacza? że my musimy spojrzeć na
nasze strony internetowe, na nasze
profile i tak dalej jako doświadczenie,
jako jaką wiedzę ekspercką
reprezentujemy, czy jesteśmy autorytetem
albo wskazujemy takie cechy, że nas
udostępniają, lajkują i tak dalej, moi
drodzy i stopień zaufania, czyli
czyli wchodzą tu wszelkie aspekty także
techniczne domen i tak dalej i to
powoduje
że my dzisiaj zupełnie inaczej
funkcjonujemy pod względem
pozycjonowania stron internetowych.
Oczywiście stare pozycjonowanie nadal
działa, natomiast zobaczcie, jeżeli ja
cokolwiek sobie wpiszę w Google, na
przykład kim jest Tomek Turba, tak? To
co się stanie? Zobaczcie, no mamy tu
oczywiście jakieś odpowiedzi. A jak się
przełączę na
na moje konto płatne? Zobaczcie, jest
coś takiego jak tryb AI, tak? No i
zobaczcie, mamy wyszukiwajkę.
wyszukiwarkę AIową, ale to nie jest
Gemini. Kim jest Tomek Turba? Ja nie
wyszukuję bezpośrednio już wyszukiwarce,
tylko model, zobaczcie, zerknął sobie w
jakieś adresy i na tej podstawie te
adresy tutaj przedstawił. Tak, my
oczywiście mamy realny wpływ na to, co
tutaj widzimy, ale no funkcjonuje to
zupełnie już inaczej. Tak więc
specjaliści z pozycjonowania będą mieli
też złote czasy przed sobą, jeżeli się
tym zagadnieniem AEO zajmą. Jest takie
fajne narzędzie Getmint, gdzie
faktycznie na ten moment możemy jeszcze
to sobie przemonitorować wszystko,
natomiast algorytmy nie są oczywiście
dostępne. Tak. I zobaczcie, wybieramy
sobie w getminie na przykład typ konta.
Niech to będzie tylko i wyłącznie
dotyczące naszej firmy, na przykład
sekurak, sekurak.pl.
Adres musi się zaczynać od https. Okej,
wybierzmy sobie kraj Polska, język
polski. No i to narzędzie analizuje mi
teraz mój portal, czyli seurack.pl i
tworzy prompty, na podstawie których
potencjalnie ktoś może użyć sekuraka.
Znaczy nie ktoś, tylko model, agent może
użyć sekuraka do wyświetlenia
informacji. I co myśmy co my powinniśmy
zrobić? Powinniśmy zaadresować te
prompty jako potrzeby na naszej stronie
internetowej w formie tekstu, tak? Bo
model oczywiście przejrzy tekst. No i
zobaczcie przykładowy prompt. Szukam
dobrego narzędzia do penestu dla
początkujących. Jakie firmy oferują coś
godnego uwagi? No i przykładowo
securack.pl zapraszamy na szkolenie
takie i takie takie. Dajemy sobie
następny krok. Tutaj podajemy numer
telefonu.
Okej.
Polska.
I teraz zobaczcie
co się dowiadujemy. Sentyment do
Sekuraka jest ogromny, czyli nasi fani
nas kochają. Bardzo dziękuję. Ja też was
wszystkich kocham. Przyległość brandu do
wiadomości jest bardzo duża, ale uwaga,
widzialność nieduża. Tak, ja się bardzo
cieszę, bo z tych 12 prawie tysięcy
zapisanych osób dzisiaj mamy prawie 3000
osób, które mogą w ogóle nie znać
sekuraka. Tak więc być może wreszcie
udało nam się ruszyć do świata poza
cyberbezpieczeństwem, poza IT, co mnie
bardzo cieszy. I zobaczcie, mamy
narzędzia strony, które przy sekuraku
dają jakiś procent wyszukiwania i jakie
są źródła informacji, skąd ludzie też
mogą do nas przychodzić. Co ciekawe,
patrzcie potencjalne czaty, wyciągnięte,
czaty publiczne, które odpowiedziały
jako, że idź na sekuraka. Mam
ograniczony budżet na audyt
bezpieczeństwa. Jakie konkretne
rozwiązania? Bla bla bla. I jest
odpowiedź. W Polsce 1000 pentestów robi
Sekurak. Idź do Sekuraka, nie? Czy tam
do securitum.pl. No coś niesamowitego.
Jak takie narzędzia dzisiaj Aeo mogą nas
ładnie wesprzeć, nie? Łukas, Lukas
napisał: "Ja nie znam, a nie jestem z
IT". Dokładnie, właśnie o to chodzi, że
chcieliśmy wyjść po naszą bańkę. Mam
nadzieję, że to się oczywiście dzisiaj
udało. Aha. No i właśnie, bo przed
przerwą przecież mieliśmy sobie zrobić
narzędzie do nauki fishingu i zobaczcie,
tryb agentowy
zrobił nam całe gotowe narzędzie.
Jeszcze dogenerowuję sobie tu obrazki,
nie ma znaczenia. Uczy nas, co to jest
fishing. Z racji, że napisaliśmy tam, że
lubimy koty, tu jest zasada mruczka.
symulator łowca fishingu. Patrzcie, mamy
przykładowe maile, które możemy sobie
spokojnie tutaj obejrzeć i widzimy, że
mamy jakieś tutaj problemy, jakieś lewe
domeny. Prezes Jan Kowalski, a domena
gmail.com. O tym możemy się uczyć i
zobaczcie czy to jest bezpieczne czy
nie. Brawo, dobre oko. Zdecydowałeś, że
to jednak
nie jest fishing. Nie. Idziemy dalej.
Jeszcze raz prezent. Jan Kowalski.
Brawo. To jest wiadomość fishingowa. Jak
rozpoznać yyy czerwone flagi, presja
czasu, dziwny nadawca, podejrzany liwcy,
jesteś gotowy na cyfrowe łowy?
Zobaczcie. No niesamowite, że my możemy
sobie takie aplikacje dzisiaj y
stworzyć. Jak najbardziej coś takiego y
możemy, możemy działać. No i tam jemy
powinien nam odpowiedzieć o tej
wycieczce w Peru. Ja widziałem, że on mi
na smartfona odpowiedział. Kurde, znowu
za szybko to zrobiłem. na smartfonie
odpowiedział, że już to skończył, więc
jeszcze raz przełączymy się na konto Pro
i tutaj w historii naszych promptów
będziemy mieli luksusową podróż do Peru.
O, zobaczcie. No i w tym momencie mamy
całą wycieczkę rozplanowaną. Zróbmy
sobie eksportuj na przykład do
dokumentów. Otworzy nam się doc Google,
będziemy mogli sobie to druknąć i
zobaczcie, cała wycieczka będzie tutaj
dokładnie rozpisana. Tak, wstępi.
Metodologia planowania. kluczowe
wyzwania logistyczne, operacje bimodalne
pociągów. Zobaczcie, mamy lot z
Amsterdamu, konkretny konkretny model
samolotu,
slide radar oczywiście wyciągnięty. No i
poruszamy się po takich i takich
miejscach. Idziemy do hasiendy, Takama,
hasienda, la cara i tak dalej.
Oczywiście omijamy jedzenie świnek
morskich. No i zobaczcie dziewiątego
dnia jesteśmy już w Świętej Dolinie i
Zaginionym mieście. Spędzamy tam
romantyczne chwile we dwoje. Mamy oceny,
bo chcieliśmy powyżej 8,5. No wszystko
pięknie jest tu zrobione. Kluczowe danie
wody Amazonii. Pirania serwowana jako
dekoracje z korzeniem juki i owocami
Kokuna na przykład. Nie no, fantastyczne
miejsce, ale uwaga, stoliki zmykają,
znikają w minuty.
Musi być dokonana rezerwacja w zasadzie
jeszcze w październiku, tak więc to
powinniśmy sobie od razu przekreślić,
ale menu degustacyjne to jest około 1700
zł plus oczywiście pairing dla
odpowiedniego wina, no bo nie możemy
naszej zostawić połówki bez zasmakowania
oczywiście peruwiańskiego wina. źródła.
Jak możecie zobaczyć, tryb głębokiego
rozumowania daje nam źródła, które
istnieją. Idziemy sobie do strony
internetowej i zobaczcie, one istnieją.
Tak więc model nie shalucynował. Tutaj
wszystko jest gitarka pokazane, nie? Ta
część akurat eo Aeo Geo, którą widzicie
to jest coś zupełnie nowego, co będzie
na narzędziowniku w edycji siódmej. tego
wcześniej nie było i to będzie przypięte
do yyy do yyy yyy yyy sesji związanej ze
sprzedażą i z marketingiem. Do tej pory
oczywiście uczyliśmy się jak AI może
wspierać systemy client relationships
management, CRMy, jak pozyskiwać leadyy,
cmailingi, jak kiedy publikować posty na
social mediach, jak być influencerem,
jak stworzyć modelki AI. To wszystko się
tam generalnie dzieje, prawda? Ten temat
jest oczywiście śliski, więc my tam nie
robimy żadnych niefajnych rzeczy, no ale
musielibyście zobaczyć ile ja mam bardzo
często pytań wujku jak stworzyć tą
modelkę AI, bo też chcę zarabiać 12 000
doarów na Instagramie. Nie pamiętajcie,
że jest to troszkę śliski temat. Okej.
Stacking narzędzi AI na miejscu
czwartym. Moi drodzy, chat GPT, Gemini,
copilot nie wystarczą. Tak, musimy jakby
iść z wiatrem, żeby znać narzędzia,
jakie są teraz popularne. Yyy i moi
drodzy jakie popularne narzędzia są.
Jest jeden portal i to w zasadzie jest
kluczowa informacja z tego szkolenia, że
jeżeli bujacie w obłokach, błądzicie z
AIem, idziecie na stronę taft.com, czyli
there is an AI for that. I tutaj macie
sprawdzone już narzędzia AI. Jest ich 45
000 łącznie płatnych i bezpłatnych.
Przykładowo idzie wiosna. Jak wrócicie z
tego Peru, chcecie chcecie na przykład
sobie zaktualizować ogródek, no to
wpisujecie kategorię narzędzia Garden
Design. Tak. I zobaczcie, jest na
świecie siedem sprawdzonych narzędzi AI,
które przerobią wam ogródek, na przykład
Ogrovision. Tak, chcecie przyjanuszować,
żeby było na przykład za darmo, nie ma
najmniejszego problemu. Uruchamiacie
tryb darmowy. I to ma być tryb darmowy,
czy trial, czy premium. płacimy jakieś
drobne pieniążki, ale jest za darmo,
tak? I macie już odpowiednią pulę,
oczywiście narzędzi mniej, ale dalej
możecie z tego korzystać. Więc stacking,
znajomość narzędzi AI, no musicie
przynajmniej raz w tygodniu, znaczy nie
musicie, to zależy od was, czy się po to
nad tym pochylicie, ale jeżeli chcecie
być w trendzie AI, no to po prostu
trzeba
trzeba tę wiedzę pozyskiwać. Jakie to są
fajne narzędzia. Przykładowo tworzenie
prezentacji Gamma App. Coś
niesamowitego.
To jest oczywiście PowerPoincie, ale jak
mamy licencję 365 na copilota. Zobaczcie
co niesamowitego robi Gamma App. Chcesz
tworzyć prezentację, chcę na przykład
wygenerować ją prompta i na przykład
prezentacja firmy Securitum, tak? I w
ogóle olewam resztę prompta, klikam
wygeneruj mi conspct, nie? Do 20 slajdów
jest całkowicie za darmo, nie?
Zobaczcie, co się teraz stanie. Będziemy
mieli conspekt firmy, czyli agent
nauczył się tego, czym jest firma
Securitum, od kiedy działamy i tak
dalej. Swoją drogą ogromne pozdrowienia
dla Michała Sajdaka, mojego serdecznego
przyjaciela i także
wspólnika, a zarazem twórcę tego
wszystkiego, czyli Securitum i
Sekurak.pl. Dokładnie dzisiaj mija 17
lat od założenia Securitum, więc to jest
coś niesamowitego, nie? I zobaczcie,
mamy 10 takich slajdów. No i wszystko
nam się podoba. Chciałbym, żeby to było
na przykład w stylu takim niebieskim.
Klikam generuj
zobaczcie, co się teraz wydarzy. Slajd
po slajdzie zaraz będzie generowany.
Będą do niego dołożone animacje, będą
dołożone obrazy graficzne, niekoniecznie
oczywiście idealnie wpasowane, ale na
slajdach będą infografiki, będzie tekst,
będą jakieś inne elementy, będą pięknie
przedstawione tabele, coś co by nam
zajęło w tworzeniu prezentacji no 4
godziny. Tak. Wyobraźmy sobie dzisiaj
zarząd nas prosi na przykład: "Panie
licencjonowany inkwizytor, proszę
przygotować mi prezentację o securitum
na jutro na godzinę 12:00 na zarząd".
Nie, tak jest. Oczywiście już wykonuję.
No i musimy się najpierw dowiedzieć
historię Securitum, jakie są kierunki
rozwoju i tak dalej. Dopiero później
tworzymy prezentację i mija już 6:
godzina, nie? Więc jak najbardziej w ten
sposób można też to konstruować. I
jesteśmy już w tym momencie, moi drodzy,
na slajdzie siódmym. I w zasadzie jak
skończę mówić, to będzie gotowa
prezentacja i albo możemy ją udostępnić
z tego portalu, albo możemy sobie ją
pobrać jako PowerPoint, możemy ją pobrać
jako PDF, albo po prostu jako obrazki.
tyle aż rzeczy możemy yyy tutaj wykonać
i bez problemu może to działać. No i
zobaczcie przyszłość i innowacje w
Securitum. Yyy podsumowanie i
zaproszenie do współpracy. O, bardzo
fajnie, że od razu pomyślało zaproszenie
do współpracy, strony internetowe,
email, numer telefonu i tak dalej.
Bezpieczeństwo to nie opcja, to
konieczność. Zaufaj ekspertom
securityom. Aż chyba, aż chyba gwizdnę
gwizdnę to zdanie, żeby je prezentować.
I zobaczcie, idziemy do początku
prezentacji. No i mamy fajną
prezentację, tak? Oczywiście ja ją mogę
całkowicie zmodyfikować tak jak chcę.
Chcę, żeby to zdjęcie było inne. To mam
tutaj oczywiście prompter edytuj z
agentem będzie inne. Albo może chcę w
ogóle zmienić szablon tego y zdjęcia.
Yyy to mogę tak samo oczywiście to
zrobić. Mogę usunąć tło, mogę zrobić
upscaling i tak dalej. Kim jest
Securitum? 2009 rok. Tutaj od razu
poprawiam. 70 ekspertów obecnie
zatrudniamy.
No i region oczywiście nasz europejski.
przełomowe przykłady audyt protono,
jakieś tam różne różne fajne
ciekawostki, nie? Wpływ na
bezpieczeństwo klientów. Mamy gotowe,
tak? No i zobaczcie, klikam sobie
prezentuj, żeby nie być gołosłownym.
Mamy pięknie przygotowane animacje,
infografika, coś takiego. I zobaczcie,
dostaliśmy takie zadanie, okej, to ja
wiem, że mogę do tego skorzystać z tego
narzędzia, nie? Potrzebuję stworzyć
stronę internetową. Idę na przykład do
narzędzia V0def. Wprowadzam temat, który
mnie interesuje w tym narzędziu. Na
przykład stwórz mi landing page
szkolenia narzędziownik AI dostępnego
pod adresem httpsai.pl
i w ogóle klikam klikam takiego
promptar. No i on teraz zrobi mi stronę
internetową w parę minut, nie?
Oczywiście zwracam uwagę na
bezpieczeństwo i na kod takiej strony,
tak? Bo jako osoba techniczna, no to
fajnie mi jest mówić o tym, że to
wszystko ładnie wygląda, ale pod spodem
może być z tym różnie. Tak, z reguły to
będzie bardzo niebezpieczne, natomiast
za chwilę może już być bezpieczne,
prawda? Natomiast osoby, w sensie
humaniści spokojnie mogą sobie w tym
zakresie też podziałać. Chcę sobie
stworzyć na przykład jakąś fajną
graficzkę. Zła domena Clink AI,
przepraszam, clingai.
Nie, tylko jeszcze raz kling. O, właśnie
tutaj kling AI to jest świetny model
chiński.
Teraz momentalnie trwa największa bitwa
w historii AI. Amerykańska Sora kontra
chiński klink. I oni się tak wyprzedzają
co chwilę. A Google z modelem Veo 32 też
też obecnie w zasadzie gdzie dwóch się
bije, tam trzeci skorzystał jest
najlepszy. Natomiast Klink rzeczywiście
fajnie robi dobrze materiał. Jak
kojarzycie na przykład takie moje oczka
z takiego materiału wideo, no to ja to
zrobiłem po prostu w clingu jako
sekwencję. Tak. Ale zobaczcie tutaj.
Tutaj mamy ten nieszczęsny przykład y
modelek AI, jak to można łatwo zrobić.
Nie będziemy się oczywiście zagłębiać w
ten temat, natomiast stworzenie
materiału dzisiaj wideo czy deep fake to
jest tak naprawdę moment, nie? Ale ja
muszę o tym wiedzieć, że takie narzędzie
istnieje, że to mogę sobie stworzyć.
Tutaj V0 już mi tworzy aplikację.
narzędzie, o którym koniecznie trzeba
wspomnieć i dużo o nim rozmawiamy na
narzędziowniku, to jest drodzy państwo
Notebook LM, czyli notatnik XX wieku,
gdzie ja mogę sobie podsumować,
przygotować ściągi, mapy myśli, nawet
audiobooka z dowolnego materiału.
Przykładowo idę sobie, idę sobie utwórz
nowy notatnik.
Muszę załadować źródło. Niech to będzie
na przykład YouTube. Nie,
wejdźmy sobie na YouTubek i O, wow,
jesteśmy na stronie głównej. Wow,
jesteśmy na stronie głównej YouTubea, bo
jestem niezalogowany. Ale jaja. Fajnie,
elegancko. No i wybieram sobie jakiś
materiał. O, tutaj jest jakiś materiał.
Nie, może coś z budowania.
Co my tutaj mamy? O, jakiś jakiś
przykładowo kurs jest tak od jakiegoś
radżesza. Okej, super, że jest. Mamy do
niego linka. Wklejamy go sobie jako
źródło. No i teraz oczywiście zwracam
uwagę, że musi być tam transkrypcja,
nie? Jakie? Aha, bo ja wybrałem model
bezpłatny, ale dobra, znalazł mi i
zobaczcie, ja mogę sobie stworzyć
podsumowanie tego materiału, mapę myśli,
testy, tabelę danych, prezentację,
infografikę i fiszki. Wszystko na ten
temat mogę zrobić. Proszę bardzo. Chcę
zrobić prezentację. Zaraz będzie
prezentacja. Jak chces stworzyć fiszki,
zaraz będzie tabela danych, zaraz
będzie, to się wszystko robi
jednocześnie, nie? Bardzo dobre
narzędzie Notebook LM. Jeżeli macie
konto na Gmailu, w sensie w Googleu,
będziecie je mieli dostępne za darmo,
nie? Wersja płatna Notebook LM
oczywiście jest dużo bardziej fajna,
natomiast zobaczcie, macie konkretne
zapotrzebowanie, wiecie jakim narzędziem
to można zrobić. No i uwaga, mała
informacja, trochę szokująca. Na
narzędziowniku przeglądamy ponad 120
narzędzi w różnych kategoriach. Tak.
Dodatkowo dostajecie także mini booka w
postaci PDF. On już ma powyżej właśnie
tych 120 stron, gdzie macie opisy, ceny,
linki i zrzuty ekranu tych narzędzi,
nie? Ile? [śmiech]
Cytując tutaj Mateusza Sochę, którego
też serdecznie pozdrawiam. No jeżeli
chcemy iść z biegiem czasu powinniśmy to
wszystko znać, nie? Okej. Miejsce
trzecie, moi drodzy, operator AI. To
jest bardzo ważna kwestia, czyli my
musimy po yyy doświadczeniu pracy z
modelami, czy to LLM, czy LRM, mieć
świadomość zalet VAT i ograniczeń. No i
co cię będzie odróżniało w życiorysie od
innych osób dzisiaj? umiejętność
optymalizacji promptów, czyli prompt
engineering, znajomość narzędzi, ich
ograniczeń i licencji, to co przed
chwilą, umiejętność nieszablonowego
myślenia, czyli automatyzację, buildery,
zarządzanie agentami. Tak? No i uwaga,
najważniejsze,
modele potrafią się pomylić. Modele
można zaatakować i zhakować.
Konieczny jest awareness w zakresie
wiedzy o wyciekach, halucynacji, tak
zwanego jail breakingu i
niebezpieczeństw kodu sztucznej
inteligencji. Tak? Jakie są ryzyka
korzystania z AI? Zobaczcie, ja tutaj
mam je wszystkie wymienione na ten
moment. wycieków danych jest w ogóle
cztery. Nieświadomy pracownik, świadomy
pracownik, czyli oczywiście postępowanie
dyscyplinarne, zagrożenia techniczne i
zewnętrzne, wycieki danych na przykład z
złośliwego wstrzyknięcia prompta albo z
zatrucia modelu. To wszystko sobie, moi
drodzy, takie ataki realizujemy na
narzędziowniku. Halucynacje, coś, co
jest coraz mniejszym problemem, ale
nadal jest. yyy ryzyka prawne i
regulacyjne. Mamy oczywiście AI akt od
zeszłego roku. On co prawda jest
rozwijany cały czas, no ale też trzeba
mieć wiedzę na ten temat. No i uwaga, z
punktu widzenia psychologicznego.
Przesadne oczekiwania, rozleniwienie w
działaniu. No AI powstają już takie
badania, że my troszeczkę przestajemy
myśleć, nie? No i wizerunkowe, jeżeli
wykorzystamy jakieś narzędzie do celów
komercyjnych, a nie mogliśmy, no to jest
wtedy oczywiście problem. I zdarzają się
też, że modele są zasilane niewłaściwymi
danymi i modele są stronnicze. Tutaj
niesamowity przykład ze Stanów
Zjednoczonych, gdzie model był
przygotowany do rekrutowania na pewne
stanowisko pracy i odrzucał wszystkich
czarnoskórych kandydatów. Ci, którzy
spełniali nawet 100% wymogów. Dlaczego?
Bo model był historycznie nauczony
danymi z Ameryki. No ale model nie ma
emocji, nie rozróżnia tego, co jest
dobre, złe, etyczne i tak dalej. Tylko
jeżeli mu to wskażemy. Ten model nie
miał tego zabezpieczenia. No i wszyscy
zostali w tym momencie, moi drodzy,
odrzuceni na narzędziowniku. Wszystkie
te zagrożenia robimy. To jest mega fajny
odcinek, bo ja się w tym konikuję, yyy,
specjalizuję. To jest mój konik, nie? I
my sobie robimy deep fakei na żywo,
fishingi hakujemy, robimy jailbreaki,
robimy teatrzyki kugiełkowe, wcielamy
się w Adolfa Hitlera, robimy ataki także
techniczne i między innymi nowością w
edycji siódmej będzie pokaz narzędzia
Heckstrike. Narzędzie, które
rzeczywiście wspiera penesterów i
częściowo może także wspierać dzisiaj
hakerów.
Okej. Miejsce drugie, zarządzanie
kosztami.
Jak odróżnić ziarno od plewu, moi
drodzy, operator AI, dobry operator AI,
tak jak 10 lat temu, dobry operator
chmury będzie wiedział jak zarządzać
kosztami. I to jest game changer dla
was. Umiejętność redukcji kosztów.
Dzisiaj llmy, lrmy całe AI generuje
potworne moce obliczeniowe, które stoją
za tym oczywiście prąd, cała
technologia. Jeff Bezos, czyli prezes
Amazonu, od razu powiedział, że on w
ogóle serwerownie wyciąga na orbitę, bo
koszty są tańsze, bo cały czas jest
słoneczko i no nie ma już innej
możliwości, nie, w ciągu najbliższych
pięciu lat. I drodzy państwo, mamy
między innymi takie narzędzia jak Lang
Fuse. I w tym momencie znajomość tego
narzędzia
powoduje, że oprócz tego, że my sobie
możemy zajrzeć do różnych promptów,
które nasi pracownicy wykonali albo
nasze modele zrealizowały w trybie
agentowym, tak? Bo my możemy zajrzeć do
konkretnego zadania, to w tym momencie
my mamy tutaj realny wpływ na koszt. Ale
kiedy my mamy realny wpły wpływ na ten
koszt? Kiedy wiemy co to jest token,
kiedy wiemy co to jest embedding, jak
działa rag, yyy kiedy wiemy kiedy my
możemy użyć głębokiego rozumowania, a
kiedy wystarczy normalne promptowanie,
kiedy włączyć modelowi dostęp do
internetu, a kiedy baza lokalna
wystarczy. To jest już wiedza
specjalistyczna. kiedyś byśmy
powiedzieli naukowa, dzisiaj to jest
wiedza inżynieryjno-biznesowa
i przez większość narzędziowników dziś
ta wiedza techniczna się też przewija,
ale uwaga, mamy taki najtrudniejszy
moment. To są 13 zajęcia, gdzie
poznajemy model od strony naukowej,
dowiadujemy się, co to jest LLM, NLP,
RAC, Gen, diffusion, transformer, LLM,
embedding, token i tak dalej, i tak
dalej. aż w końcu uwaga, dokonujemy, moi
drodzy fine tuningu takiego modelu na
przygotowanych danych. Tak, to jest
wiedza, za którą dzisiaj portale
rekrutujące płacą około 28000 zł
miesięcznie na etacie. Tak,
lada moment to nie spowszechnieje. To
będzie być może nawet trudniejsze. To są
trudne zagadnienia. To nie są
zagadnienia dla wszystkich, ale my na
narzędziowniku też je podejmujemy. Tak.
A z moją wiedzą dziewięcioletnią, gdzie
ja jeszcze pamiętam model GPT2,
ja i jak się z nim pracowało, a jak się
dzisiaj pracuje dzisiaj, to ja w ogóle
powinien być powinienem być w euforii, w
którą stronę to poszło, nie? Ale tutaj
przeleję na was całą moją wiedzę z
zakresu anatomii modeli LLM i LRM
właśnie na głównie na tym ostatnim
spotkaniu. Niektórzy wiedzą już na
poprzedniej edycji, że to był niezły
hardcore, natomiast ta wiedza kluczowa,
nie? Pamiętajcie, jest dostępne
nagranie, więc jak ktoś czegoś na
przykład nie zrozumie, zawsze może do
tego wrócić. Okej. Miejsce pierwsze. Jak
myślicie, co to może być?
Modele LRM. Czyli do tej pory cały świat
zachłysnął się modelami LLM, czyli large
language models, ale jednak dzisiaj
większość modeli, zwłaszcza kiedy
wyszedł Deepsek R1 chiński, to są modele
large reasoning models, czyli modele,
które od razu tworzą sobie plan
działania i te modele są oczywiście od
razu już dostępne, ale te modele tworząc
plan działania uruchamiają sobie
agentów, uruchamiają sobie sobie
integrację, być może tworzą sobie ten
specjalistyczny serwer MCP, być może
wykorzystują sobie NN n N8N, monitorują
wykonanie zadań i co cykl się
poprawiają. Ja kiedyś miałem okazję
zobaczyć na żywo jak w projekcie Google
1 LRM uczy się od siedmiu pozostałych
programować. Niezwykły widok, powiem
wam, bo było pokazane tak jakby
dokładnie jak to wygląda. 20 kodów
programistycznych, jeden główny LRM
wybierał najlepsze cechy, tworzył nowy
kod, nagle się jak zrobił sobie testy
automatyczne, okazało się, że nie, nie,
nie wrócił i tworzył i tak się zapętlał
po godzinie ten kod był
bez błędów, nie? To jest przyszłość. Ale
uwaga, zwracam uwagę na coś bardzo
ważnego. Do tej pory pory LR LRMy były
traktowane jako trochę taki urban
legend. Dlaczego? Bo pojawiły się
badania naukowe, które kładą generalnie,
że z wieżą Hanoi sobie nie poradzi albo
z problemem komioożera i tak dalej. Nie
mówimy o badaniach sprzedroku, moi
drodzy. AI sprzedroku, a lrmy dzisiaj to
jest niebo, a ziemia. Tak więc nie
ulegajcie takim sygnałom, że a lrmy a po
prostu po prostu tryb głębokiego
rozumowania. To będzie bardzo ważna
umiejętność, żeby rozróżnić LLMA od LRMA
i właśnie pracować głównie na LRMach.
Czyli wiedząc, że jak dajemy tę
wycieczkę do Peru, będziemy konkretni,
to nagle mamy nowe techniki
promptowania, czyli wykorzystaj agenta
do tego, stwórz nam plan działania za
pośrednictwem narzędzia Taskate i tak
dalej, i tak dalej i tak dalej. nie yyy
piszecie, że jako osoba techniczna
jestem przytłoczony, to bardzo się
cieszę, że merytoryka wam się podoba na
szkoleniu, bo nigdy bym nie chciał, żeby
sekurak został nazwany, że jesteśmy
jakimiś marketingowcami, że tylko i
wyłącznie coś sprzedajemy. Bardzo się
cieszę, że że tak reagujecie. LM versus
LRM. No generalnie klasyczny LLM zrobi
niewiele, a LRM zrobi w zasadzie tyle,
co zrobi człowiek, tak? Czyli
przeanalizuje samego siebie, ma
autonomię, używa dodatkowych narzędzi,
sam podejmuje decyzję, czyli agent LRM
to jest totalna przyszłość. Nie
zwracajcie na to uwagę. Gemini dokładnie
jest przykładem modelu LRM. Chat GPT
wersji 5.2 albo z modelem O3 O4 jest
LRMem. Deepsek R1, tylko nie ze strony
Deepsik Combo, wszystko leci do Chin,
ale jako model lokalny, zwłaszcza ten
ogromny 670 miliardów,
kapitalne rozwiązanie. Jeżeli macie
możliwość, korzystajcie już dzisiaj z
lrów. Tak. To będzie bardzo ważna, moi
drodzy, umiejętność. Jakie mamy
przykłady takich zbudowanych już lrów od
zera? No to jest na przykład firma cała
superagi.com,
gdzie jeżeli my sobie tutaj wejdziemy,
to zaraz zobaczycie ile tu jest w ogóle
możliwości uruchomienia agentów i
integracji, nie? Ja sobie uruchamiam
teraz w taki trybie zaledwie
sprzedażowym, czyli interesują nas tylko
produkty sprzedażowe. Klikam sobie
otwórz market. Zobaczcie, ja mogę od
razu jednym kliknięciem do mojego LRMA
doinstalować agenta CRMA, agenta
spotkań, Cold Mailing. Mogę doinstalować
sobie rozmowy telefoniczne, oczywiście
muszę podać oczywiście klucz do
odpowiedniego API i tak dalej.
Zobaczcie, analityka biznesowa,
dashboardy, zarządzanie projektami,
agenci głosowi, nie wszy WhatsAppa można
podpiąć, nie? To wszystko w tym
narzędziu można sobie skonfigurować. No
i nagle dochodzimy do tego, że model nie
jest już wyłącznie generowaniem tekstu,
generowaniem fajnego obrazka i tak
dalej, bo to też jest fajne, nie? Ale
moi drodzy jest faktycznie zadaniem
biznesowym, nad którym my jako człowiek,
jako operator AI będziemy sprawować
piecze. To jest konkluzja i przyszłość
tego, jak my z tym AIem będziemy
pracować. Więc my się nie bójmy tego AI,
bo im więcej go poznacie, tym lepiej
będziecie go tresować i będziecie panami
tych modeli. Oczywiście zwracam uwagę,
że sztuczna inteligencja, jeżeli to
usłyszę, to pierwsza mnie zastrzeli za
kilka lat, ale mam nadzieję, że nie
będzie miała kontroli takiej nad
człowiekiem. Na narzędziowniku
zapoznajemy się z różnymi trybami
działania. Uruchamiamy też serwery MCP
do integracji. Generalnie przechodzimy
cały ten proces budowania narzędzia LRM.
Moi drodzy, docieramy do końca naszego
szkolenia,
więc chciałbym kilka słów powiedzieć o
narzędziowniku AI. Mianowicie mamy na
ten moment już siódmą edycję. Tak, co
edycję średnio zapisanych jest 34000
osób. 13 szkoleń na żywo, dwie godziny
każde spotkanie. To jest takie minimum.
Każdy kto mnie zna wie, że troszeczkę
dłużej to potrafi zająć, bo odpowiadam
na każde pytanie na czacie, nie? Żywy
trener. Tak, to jest bardzo ważne, bo
niektóre szkolenia już są takie, że nie
mają żywego trenera, nie? Nagrania na
zawsze. Miniook PDF, ponad te 100 stron,
test sprawdzający wiedzę na koniec,
certyfikat w języku polskim i
angielskim. Bardzo często chwalicie się
i oznaczacie nasze profile Sekuraka i
Tomka na LinkedInie. Tutaj przykład od
pewnej osoby, oczywiście anonimizowane.
Zobaczcie, taki ładny certyfikacik.
Można się pochwalić w języku polskim,
angielskim. Jak szukacie pracy,
każdy kto
a działy hrowe już mnie znają, jeżeli
widzą o szkolenie AI od Sekuraka,
zupełnie inaczej na to patrzą, nie? No i
mamy oczywiście dostęp do Discorda,
gdzie mamy community ponad 100 000 osób.
Ja już pozwoliłem się w ramach bonusów
dzisiaj wam tym linkiem pochwalić.
Poszczególne sesje 13 jak wygląda
wprowadzenie do zagadnień NI. Od 27
stycznia startujemy, więc jeszcze jakby
ktoś chciał się zdecydować to jest
moment, że jeszcze zostało te 11 dni. Na
drugim miejscu narzędzia kreatywne,
czyli obraz, wideo, dźwięk i tak dalej.
Stworzymy sobie hymn jak w każdej edycji
z waszych nicków. Osiągamy mistrzostwo z
narzędziami biznesowymi. Cały odcinek
poświęcony coilotowi, cały odcinek
poświęcący poświęcony edukacji rodziców
i dzieci, bezpieczne korzystanie z AI,
własny asystent, programowanie,
modele wersji offline, czyli właśnie te
lokalne, jak ułatwić sobie życie, czyli
agenci i automatyzacja, sprzedaż, AI w
marketingu, pomoc w researchu i
edukacji. No i ostatni hardcore,
zaawansowana konfiguracja modeli, nie?
Okej. I teraz uwaga.
Mamy małą przerwę, ale nie wiem czy
widzieliście, bo na slajdach przewijały
się takie jakieś małe elementy i dla
spostrzegawczych
zaraz będziemy sobie rozwiązywać trzy
konkursy i uwaga, do wygrania jako
główne nagrody będzie dostęp do
narzędziownika AI. A kto już oczywiście
kupił, to dziękuję. Będzie miał też
szansę oczywiście na nagrodę w postaci
kubeczka. Albo jak ktoś by wygrał, no to
może dać ten dostęp dla kogoś w formie
prezentu, albo ewentualnie przemianować
się na takie szkolenie narzędziownik
osint, bo też takie akurat prowadzę, moi
drodzy. Więc teraz znowu króciutka
przerwa, 5ć minutek. Pamiętajcie o tym,
że do dzisiaj
te dodatkowe bonusy są, a do
poniedziałku jest rabat. No i ja w tym
momencie znowu pozwolę sobie włączyć
jakąś tutaj planszę. Niech to będzie
najpierw plansza ta, a później będzie z
agendą. I teraz puszczę wam inną
muzyczkę. Teraz będzie Akademia grzechu,
tak się ten utwór nazywa. To jest jako
taki tribut do Securak Academy. To
będzie hardkorowy bit. Widzimy się moi
drodzy 20:56 na rozwiązaniu konkursu i
sesji Q&A jeszcze dzisiaj. Do za chwilę.
>> [muzyka]
[muzyka]
>> P
[muzyka]
>> [muzyka]
[muzyka]
[muzyka]
>> Ah. Ah.
[muzyka]
>> [muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
>> Ah
[muzyka]
[muzyka]
>> [muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
>> Hello wszystkim. Dzięki. Po przerwie
przyszedł mój asystent. On nie jest
wygenerowany,
tylko jest tutaj wielkim pomocnikiem na
szkoleniu narzędziownik. A uwaga,
czasami pomaga usypiać dzieci, bo na
przykład dzieci o 19:00 albo 20:00 nie
chcą iść spać. No i w tym momencie na
czacie pojawia się pytanie: Tomek, czy
możesz dać Kitku, bo wtedy Kitku macha
do wszystkich, nie? I dzieci się cieszą.
Pozdrawiamy dzieciaków. No i w tym
momencie jest zabawa. Idź tutaj zawsze,
gdzie twoje miejsce. On tak potrafi
siedzieć sobie tutaj ze mną, machać mi
po twarzy ogonem, więc więc zgodnie z
życzeniem Kitku oczywiście się pojawi.
O, on sobie lubi tak siedzieć ze mną na
szkoleniu. Czekajcie, złapię, żeby go
lepiej było widać w kamerze,
moi drodzy, to co, rozwiązanie konkursu,
a w zasadzie to konkursów. Czekaj,
Kitku, bo cię słabo widać. No patrz, nie
ma twojej głowy. Muszę ją dogenerować.
Okej. Moi drodzy, rozwiązania konkursów.
Jakie mamy zasady konkursowe? Będą trzy
pytania. Każde pytanie to osobny
konkurs.
Odpowiedzi na każdy konkurs wysyłamy pod
adres ca@ecuritum.pl.
Więc przygotujcie proszę swoje maile i
zaraz będziecie mieli widoczne pytania.
W tytule wpiszcie konkurs AI1, konkurs
AI2, konkurs AI3. Oczywiście nie musi
być idealnie z haszem i tak dalej, nie.
No i moi drodzy nagrody. Trzy wjazdy na
pełne szkolenie narzędziownik AI ze
wszystkimi dodatkami, materiałami,
certyfikatami
i kubeczki. kubeczków. Mamy dziewięć
kubeczków do rozdania, czyli trzy per
każdy konkurs. Te kubki są
niezniszczalne. Ja w zmywarkach to cały
czas je mam. Nic się z nimi nie dzieje.
500 ml czarne wnętrze do czarnej kawy,
do czarnego serca. Po prostu idealnie,
nie? Szczeciński Many pisze, że koty
śmierdzą. Oj, nieprawda. wszystkie Kitku
tutaj non stop się myje. Mnie też myje.
W ogóle nie pachnie brzydko, moi drodzy.
Zatem uwaga, przygotujcie swoje
klawiatury.
Pytanie pierwsze.
Ile było wszystkich jokerów w
prezentacji?
Poczekamy sobie chwilkę, bo wiem, że
oczywiście to, że ja mówię, to wy
widzicie w buforze dopiero za parę
paręnaście sekund. No i odpowiedź
grzecha, oczywiście standardowa, którego
serdecznie pozdrawiam. Oczywiście
wszystkie były, [śmiech]
natomiast faktycznie doprecyzowując
chodzi o konkretną liczbę. Nie piszemy
na czacie, piszemy na całecuritum.pl.
Drodzy moi, pierwsza osoba z prawidłową
odpowiedzią wjedzie na narzędziownik AI
jak dzik szyszki,
czyli pakiet cały szkoleniowy będzie dla
niego. Oczywiście odpowiemy w mailu
zwrotnym, a także dla osób, które
dostały kubeczek, nie? No to co, gotowi
na pytanie drugie?
Dajemy sobie chwilkę czasu i uwaga,
pojawia się pytanie drugie.
Jeden kolor miał inny, jeden joker,
przepraszam, miał inny kolor. Jaki to
kolor?
Jeden był wyjątkowy całkiem niedawno.
Pytanie, czy Notebook LM by sobie z tym
wszystkim oczywiście poradziło. Nie
pamiętajcie odpowiedzi na
całasecuritum.pl.
Paweł odpowiedział kolorowy też. To jest
odpowiedź prawidłowa, ale oczekujemy
oczywiście prawidłowej, jednego
jednoznacznego koloru.
Okej. 5 4 3 2 1. Lecimy dalej. I moi
drodzy, ostatnie pytanie.
Uwaga.
Jeden Joker miał gadżet na sobie. Jaki
to był gadżet? Gadżet, przedmiot. Może
bardziej przedmiot tutaj pasuje.
Pamiętajcie odpowiedzi na całecuritum.pl
w tytule konkurs trzeci i lecimy.
O, widzę, że Gynwel jest na
czacie. Serdecznie pozdrawiam
moi drodzy. yyy legenda yyy h światowego
hakingu Gwel Coldwind, zresztą nasz
szkoleniowiec jest na naszym szkoleniu.
Yyy mega pozdrowienia y dla
niesamowitego naszego ziomka, który też
zna oczywiście AI yyy od podszewki i
wychował się jeszcze w czasach, gdy tego
AI nie było.
Dobra, no to oczywiście temat zamykamy.
Odezwiemy się do wszystkich, którzy
brali udział w konkursie i wygrali
nagrody. Jak będziecie chcieli, możecie
tę informację oczywiście opublikować.
Wszystkim bardzo dziękuję. Teraz, moi
drodzy, sesja pytań i odpowiedzi. No i
teraz mamy taką sytuację, że ile mamy?
Mamy ponad 3000 wiadomości na czacie.
Jak my to, moi drodzy, zrobimy?
No myślę, że muszę po prostu przejrzeć
te wiadomości. Tak się bronię, żeby
napisać sobie tego parsera do pytań i
odpowiedzi, ale chyba przy takiej skali
osób ponad 2100 na liveie, no nie jestem
w stanie aż wszystkich chyba pytań
wyświetlić. Więc w zasadzie to jestem
ciekaw, czy nie zrobilibyśmy coś
takiego, że y jakbyście mogli powtórzyć
swoje pytania, to ja od tego punktu zero
od 21:00 wziąłbym je pod uwagę. No bo
widzę, że też macie dużo różnych fajnych
komentarzy, to jest okej, ale wtedy
literki Q byłyby wygodniejsze, nie?
I teraz tak, pierwsze pytanie. Jakie
były prawidłowe odpowiedzi? No chyba już
mogę powiedzieć, jokerów było 13 łącznie
razem z fioletowym, bo fioletowy to był
kolor, a przedmiotem był oczywiście
kwiatek. Do kiedy rabat jest 75% na
narzędziownik? Do końca dnia, do
poniedziałku. Ale dla tych, co kupią
dzisiaj te super jeszcze dodatkowe
bonusiki. I oczywiście powtarzam, że dla
tych kto co kupili wcześniej y
lojalnościowo oczywiście macie yyy
wjazd. Tak samo
yyy lecimy dalej. Yyy czym nowa edycja
narzędziownika będzie się yyy różniła,
która zakończyła się w grudniu?
Oczywiście z racji, że tutaj mamy mało
czasu między edycjami, to różnice będą
niewielkie, ale wskazaliśmy je sobie na
szkoleniu. Poruszymy AEO Geo, poruszymy
LRMy, poruszymy Agentic AI. To będą
główne różnice. No plus oczywiście
statystyczne nowości, które zawsze około
zajmują 15% na narzędziowniku. Uwaga,
jeżeli jesteście osobami wracającymi
weteranami, możecie do nas napisać. to
zawsze oczywiście takie osoby też
traktujemy wyjątkowo na
szkolenia@pasecuritum.pl.
Czy jak ktoś nie będzie mógł
uczestniczyć, to może sobie odtwórzyć
później na drugi dzień? Tak, a nawet za
rok. Z tym, że oczywiście nagranie
będzie dostępnie po wszech czasy, ale
zwracam uwagę, że za pół roku oglądanie
tego materiału nie będzie już miało
sensu.
Co było pierwsze? Ai czy kotek?
Oczywiście, że kotek. Nie czekajcie.
Yyy, nie pierwsze było AI. Rozpocząłem
rozprawę doktorską. Yyy, przed kotkiem
wycieki w temacie rag. Potż kilka
przykładów właśnie promptuje sobie w
organizacji stworzenie RAG, bo blokujemy
wkładanie danych do GPT. Najbardziej
spotykany problem to jest insider
thread, czyli jeżeli budujemy jeden
agregator bazy wiedzy do raga, na
przykład dla zarządu, to musi być on
odseparowany od wiedzy pracowników, bo
pracownik może się zapytać ile zarząd
sobie przydzielił premii, bo może
wynikać to z dokumentów, czyli wyciek
wewnętrzny. Głównym jest oczywiście
problemem tutaj.
Czy AI zastąpi programistów? Jeżeli
programista zacznie programować z AIem,
to nie i uwaga, takie osoby będą
wyjątkowo potrzebne. Nie juniorzy, ale
na poziomie seniorskim na pewno.
Top trzy narzędzi AI, Tascate, Gemini
VO3
i i i Gamma Up. Nie, to taki mój top
trzy na pewno.
Napisz agenta, niech je uporządkuje i da
priorytety. Tak, wiem, ale ja to tak
trochę rozumiem. Wiecie, że jeżeli ja
przeczytam tego Q i znajdę to na czacie,
to jakby z większym szacunkiem się do
was odnoszę, nie? Ale chyba skala
zdecyduje, że może rzeczywiście takie
narzędzie zrobimy. Dlaczego nie nic nie
było o PHP? Pyta proxy. A tutaj mała
niespodzianka. A co byście powiedzieli,
jakby miało się pojawić szkolenie
wyłącznie dla deweloperów albo seria
takich szkoleń? Tutaj Roberta Kruczka
Proxiego serdecznie pozdrawiam i uchylam
trochę może rąbka tajemnicy.
Do czego najlepiej używać jako pomocy do
programowania? Jeżeli pomocy do
programowania, czyli bardzo słusznie do
tego podchodzisz, to wystarczy doć sobie
LLMa na przykład do Visual Studio Code.
Albo przykładowo możesz sobie
zainstalować yyy takiego frameworka
Codex na komputerze. Y, nie kodex,
przepraszam, yyy, kursor. Kursor. No i
wtedy masz pełne wsparcie asystenta AI,
refaktoryzacja,
testy, wyjaśnianie kodu, dokumentacja,
tego typu rzeczy w programowaniu.
Czym się różni najite D2
od 2005? No brakiem litery 5, tak
kolokwialnie mówiąc.
Czy w Perplexity można budować agentów?
Nie można budować asystentów w formie
tak zwanych przestrzeni spaces.
Czy obecne braki pamięci na rynku
powodujące absurdalne cenę realnu i
podwyżki cen kart graficznych spowodują
większą kantyzację modeli lokalnych AI?
Tego byśmy sobie życzyli dla wszystkich
osób. Co to jest kwantyzacja? To jest
można to porównać troszeczkę do
kompresji, także model traci trochę na
jakości, ale można go uruchomić na mniej
na wydajnym sprzęcie. Nie wiadomo, co
się stanie. A może będzie wielka wojna a
propos tego RAMu? Ciężko powiedzieć.
Okej.
Kiedy można się spodziewać ósmej edycji
narzędziownika? pewnie po zakończeniu
tej edycji, czyli no najwcześniej gdzieś
kwiecień, maj, a może będzie coś
zupełnie innego.
Open AI najszybciej wystartował przez
jakiś czas utrzymał przewagę. Z czego
wynika aktualna przewaga Gemy nad czatem
GPT, nad zapleczem technicznym.
Kompetencje w Googleu są ogromne.
Zresztą Gynwell, który jest tutaj
obecny, wieloletni pracownik Googlea. No
to moi drodzy, jeżeli Google ma takie
talenty, no to nie ma się co dziwić. No
i moce obliczeniowe w zasadzie
nieograniczone. Klasteryzacja i super
komputery, nie? Czy długość kontekstu
modeli nie tworzy problemów w systemach
RAG? Tak, tworzy jak najbardziej. I w
tym momencie my rozwiązujemy ten problem
dobierając odpowiednią bazę wektorową
bądź ebeding. Jak najbardziej się tak
dzieje.
Rak Gemini via API tokeny. Jeżeli firma
działa w Google Workspace versus
bezpieczeństwo danych. Jeżeli działacie
w Google Workspace, macie licencję
biznesową, to macie chmurę prywatną i
zasady dokładnie tak jak w docch, w
spreadsheetach działa to bardzo dobrze.
Uwaga, securitum tak działa, więc mogę
dać duże okej, nie?
Jak kwalifikujesz Cloud Code jako
wtyczka w VS Code, agent LLM czy już
LRM? Cloud rzeczywiście ma ogromne okno
kontekstowe i może działać spokojnie
jako LRM ze względu na funkcję
projektów. Bardzo dobrze, bo Cloud Code
bardzo fajnie wspiera serwery
integracyjne MCP.
Jak znaleźć pracę z AI? Od czego zacząć?
Szukać takich stanowisk. No ale
zapraszam cię przede wszystkim na
narzędziownik AI.
Jaki płatny czat poleciłbym dla admina
IT? Perplexity na ten moment, bo masz
wybór różnych modeli. Czy promptować
gemy lub w czatach lm jak Gemini przy
użyciu Markdowna lub XML? Tak, to też
jest specjalny rodzaj promptowania
strukturalnego. Model bardzo to lubi
robić, bardzo to lubi czytać.
Wszystkie modele na razie często podają
błędne odpowiedzi. Perplexit i Gemini.
Na razie polegam na nich przy 50. Czy są
jakieś sposoby weryfikacji? Zabezpiecz
swój prompt na początku. Takim zdaniem
zweryfikuj sam siebie i model wtedy
będzie sprawdzał, czy napisał dobrze. To
też jest rodzaj promptowania.
Laknę, najlepiej utworzyć lokalnego
asystenta programowania. Trzeba dobrać
właściwy model, na przykład phi koder
albo kuven. To będą dobre modele do
programowania.
Czy link do narzędziownika można? Ai.pl.
Jak korzystać z narzędzi i umiejętności
firmach, gdzie jest bardzo mocne rodo,
dane, wrażliwe? Trzeba trzeba modele
lokalne wdrażać, nic innego. Wtedy nie
ma możliwości w ogóle umowy, powierzenia
danych na zewnątrz i tak dalej. Tylko w
tą stronę. Mając NPDFów, czy da się
utworzyć tool, za pomocą którego będzie
można wyszukiwać odpowiedzi na zadane
pytania, żeby nie był to rak? Tak,
oczywiście dedykowane narzędzie możesz,
no ale po to jest rak, że masz bazę
wektorową plus mały model embedingowy,
który to ogarnie.
Czy jest jeszcze jeden opcja na moduł
oparty o praktyczne wdrożenie w życiu
użytkowników? Dobrze, zastanowię się.
Bardzo fajny pomysł. Dzięki. AI kontra
XF trzy kropki tutaj daje jako
odpowiedź.
Jaki temat pracy doktorskiej
opracowywałeś? Fazer oparty o uczenie
maszynowe. Coraz więcej treści jest
tworzona przez AI, a nawet 51%
internetu. Jakie widzisz zagrożenie?
Koniec internetu. Tak, bo model
dojdzie do sprzężenia zwrotnego. Nie
będziesz się miał na czym uczyć.
Czy ma znaczenie w jakim języku zadajemy
pytania asystentowi? Generalnie 99%
modeli jest nauczony na języku
angielskim, więc on procesizacji
embedingu de facto musi przerobić na
język polski. To już dzisiaj nie ma
większego znaczenia, bo okna kontekstowe
są tak duże, że to po prostu działa. Ale
w przypadku generowania grafiki i
materiału wideo lepiej skorzystać z
promptów angielskich. Po prostu jest to
sprawdzone już naukowo.
Jaki certyfikat zostanie wystawiony po
zakończeniu szkolenia? certyfikat
ukończenia szkolenia w języku polskim i
angielskim złożony z 13 modułów i kiedy
się odbywały i kto był trenerem.
Narzędzia AI do przeglądania logu w
Windowsie. Logi są duże i jeżeli mówisz
o eventach, czyli plikach FVTX, dobrze
się tu sprawdzi cloud na pewno sonet
konkretnie.
Jak wygląda sprawa autorskich dzieł praw
autorskich? Czy musimy traktować modele
AI jako oddzielne aplikacje z własnymi
licencjami. AI Act próbuje to generalnie
dobrze rozpisać i mamy tam coś takiego
jak AI code of practice. Ale kiedy my
mówimy zgodnie z prawem autorskim o
utworze, kiedy człowiek go stworzył, tak
możecie w prawie autorskim taki zapis
przeczytać. Więc yyy samo wygenerowanie
to nie jest stworzenie przez człowieka,
ale uwaga, jak zmodyfikujemy już coś yyy
drugi prompt damy i tak dalej, to już
formalnie jest, ale to nie jest jeszcze
dobrze zrobione, tak szczerze mówiąc,
mamy także dyrektywę CSDM, TDMy, no nie
jest to prosta sprawa. Infosec i IP w
Unii Europejskiej, nie?
Cyberpunk lepszy niż Wiedźmin, nie?
Wiedźmin lepszy.
Kiedy AI uczy się na naszych danych, a
kiedy nie? Kiedy mu na to pozwolimy?
Chyba, że mamy modele chińskie.
Czy widzę sens stawiania małych modeli
typu Bielik?
Nie za bardzo. Bielik jak się rozwinie,
jak będzie w kolejnej wersji, pewnie
będzie już super. Na ten moment jako
model lokalny polecałbym GPT OSS 20
miliardów parametrów.
Opowiedz coś o Heckstrike. Jest to fajne
narzędzie, które łączy serwer MCP razem
z penestem, więc jest to bardzo wygodne.
Czy możemy mówić już o rosnącej
homogeniczności modeli AI? To jest
bardzo dobre pytanie. Jak najbardziej,
tylko musielibyśmy poświęcić temu cały
webinar.
Czy programowanie teraz bez AI to tylko
jako happy? Oj, zdecydowanie nie.
JavaScripty, Python, sama Java dalej
programujemy bez AI, ale warto
oczywiście to wiedzieć. Warto też znać
PHP. Na pewno Robert Kruczek się
ucieszy.
Najlepsze rozwiązanie AI do
programowania. Jeżeli jako wsparcie to
kursor, a jeżeli jako builder to manus i
v0.
Czy będą tematy prawne i prywatności
danych? Na narzędziowniku niewiele. Na
szkoleniach zamkniętych jak idę do firm,
to rozpracowujemy sobie AI act.
Czy są narzędzia dla inżynierów
budowlanki czy agenci AI?
Są narzędzia kadowskie wspierane z AIem.
Natomiast no w budowlance AI to długo
nie wejdzie, nie?
narzędzia do montażu wideo. Na przykład
Clink AI będzie tutaj świetnym
rozwiązaniem. Sora zresztą tak samo.
Pixel Cut i Canva też nie odstają.
Najlepsze narzędzie do tworzenia kodów
pytanie. Tworzenia kodu to jest kluczowa
informacja. Myślę, że tutaj kursor z
asystentem jak najbardziej będzie okej.
To już odpowiadałem. Narzędziownik też
będzie jakaś promka na osint?
Oczywiście, że tak.
Czy do LLM jest lepszy i57 Ultra czy
Xon? Oczywiście, że Xon, ale ja działam
na przykład na i5 i z kartą graficzną
jest okej. Czy na małych modelach widać
znaczącą różnicę w ilości halucynacji?
Tak, widać. Widać ją bardzo mocno.
Jak nagrywasz dźwięk? Jakość mega. No
mam profesjonalny mikrofon i mam tutaj
studio wygłuszone.
Czy można się spodziewać szkolenia z
zaawansowanego Pytona? To właśnie
Genwell Coldwind prowadzi u nas takie
szkolenie. Zobaczcie, czy nie działa
przypadkiem adres pythonekurak.pl,
to tam możecie się zapisać z ręką na
sercu. Polecam.
Czy gemy w Gemini można wykorzystać jako
asystent AI? Dokładnie, to jest asystent
AI.
Pozdrawiam kota. Wielkie dzięki.
Czy będzie dostępna transkrypcja
szkolenia? Tak, tak, tak. Zawsze dajemy
oczywiście i rozdziały.
Jaka jest skuteczna metoda aktualizacji
danych w modelach lokalnych? No i tutaj
ogromną przewagę ma właśnie Open Web UI
z tego względu, że moi drodzy, my możemy
to wszystko wyeksportować i później
zaimportować do nowego modelu.
Oczywiście jako tekst.
Agent w życiu prywatnym. Szybki
przykład.
Ja akurat mam taką sytuację, to jest
trochę śmieszne może, ale kiedy biorę
smartfona do ręki to model zaczyna
parzyć mi kawę, nie? On widzi, że to
jest na przykład godzina 8:03, tylko
muszę mieć podstawiony kubek.
No i plus otwieram maile. To oczywiście
chyba już standard jest u wszystkich.
W firmie lepiej N8N czy Power Automate?
No rozwiązanie Microsoftu Power Automate
jest zeguły przeznaczone do biznesu.
Jeżeli mamy środowisko Microsoftowe
oparte o entrę, zdecydowanie Power
Automate.
Czy używałeś Warm GPT? Oczywiście, że
tak.
Canon Foder 2 czy Wiedźmin? Jednak
Wiedźmin.
Dobra, myślę, że powoli dobijamy do
końca.
Dlaczego nie było nic o Arizem,
searchable i Lama index? Akurat Lama
index to sobie zrobiliśmy na przykładzie
Langfus. Searchable zamieniliśmy sobie
na getminta, a Arizem rzeczywiście
faktycznie będę prezentował, ale jakbyś
chciał się coś dowiedzieć, odezwij się
do mnie na privie.
Jakie modele lokalne na Mac OSOS? Oj,
tutaj bardzo dużo zadziała. Maos
fantastycznie działa z modelami. Nie,
nie, nie, nie będę ci konkretnie
wymieniał, ale do 12 miliardów
parametrów to ze spokojem.
Czy istnieje narzędzie AI dla inżynierów
sieciowych, czy raczej opierać się na
perplexity? Na razie się to wszystko
rozwija, to powoli. Jeszcze nie.
Perplexity jest dobrym zagadnieniem.
Czy będzie orkiestracj zadań tak, żeby
mieć wszystkie logi? Ale tu mówimy chyba
o innym szkoleniu. Na Wazuchu to tak.
AI project management 100% Taskate tylko
i wyłącznie.
Kursor szybko pilot kursor.
Co myślisz o Game Co ai od raz? Będę
testował, ale jeszcze jeszcze nie mam
wiedzy. Jakie minimum specyfikacje dla
lokalnego AI? Byle jaka karta GPU
GeForce T60 będzie okej. Dobra moi
drodzy, generalnie dochodzimy chyba do
końca. Jak będziecie mieli jakieś
pytania, to ja nie chcę was już
wszystkich tutaj przyciągać, ale
odezwijcie się do mnie na Discordzie
albo na LinkedInie. Na przerwie
kliknąłem tak ze 260 nowych zaproszeń,
więc mega dzięki. Słuchajcie, bardzo
dziękuję wam za dzisiaj. Widzimy się
oczywiście na następnych naszych
szkoleniach. Zapraszam na inne nasze
inicjatywy. Śledźcie nasze portale
społecznościowe. Jak możecie wypełnijcie
ankietę, do której Łukasz wam dał tutaj
dostęp. Yyy, generalnie Łukasz, mega
dzięki za wspieranie tutaj mnie na
czacie, za organizację całego szkolenia.
Cóż mogę powiedzieć? Dobrej nocy,
dobrego weekendu. Sięgnijcie po tą
wiedzę AI, bo na pewno będzie ona dla
was procentowa. Mega dziękuję,
trzymajcie się, wszystkiego dobrego. Na
koniec jeszcze pozwolę sobie strzelić
ostatnią promocję narzędziownika. Muzyka
końcowa i lecimy. Trzymajcie się. Cześć.
[muzyka]
>> [muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
[muzyka]
>> He.
>> [muzyka]
[muzyka]
[muzyka]
[muzyka]
UNLOCK MORE
Sign up free to access premium features
INTERACTIVE VIEWER
Watch the video with synced subtitles, adjustable overlay, and full playback control.
AI SUMMARY
Get an instant AI-generated summary of the video content, key points, and takeaways.
TRANSLATE
Translate the transcript to 100+ languages with one click. Download in any format.
MIND MAP
Visualize the transcript as an interactive mind map. Understand structure at a glance.
CHAT WITH TRANSCRIPT
Ask questions about the video content. Get answers powered by AI directly from the transcript.
GET MORE FROM YOUR TRANSCRIPTS
Sign up for free and unlock interactive viewer, AI summaries, translations, mind maps, and more. No credit card required.