Mentionsy
Vibe Coding - praktyczne porady i eksperymenty
Praktyczne doświadczenia i przemyślenia na temat "vibe codingu" – czyli tworzenia oprogramowania głównie za narzędzi AI, minimalizując ręczne pisanie kodu.
Odcinek porusza zarówno zalety, jak i pułapki tej metody, a także rozprawia się z popularnymi mitami i obawami dotyczącymi kodu generowanego przez AI.
Polecane podcasty na ten temat:
Building a magical AI code editor used by over 1m developers in 4 months: Inside WindsurfOpenAI’s CPO on how AI changes must-have skills, moats, coding, startup playbooks, more | Kevin WeilHow he built iOS apps that PRINT with Cursor + Claude
Szukaj w treści odcinka
Dodatkowo chciałem też używać LLM-ów do generowania tych kartek, czyli na przykład zamiast ręcznie wpisywać 50 kartek do nauki języka niemieckiego, czy tam angielskiego, czy hiszpańskiego, no to będę mógł po prostu napisać do LLM-a, hej wygeneruj mi 50 kartek do nauki słówek z hiszpańskiego, z tematyki chodzenie do baru, jakkolwiek śmiesznie ta kategoria brzmi, no i wtedy mogę sobie z niej korzystać.
Bardzo mi się podoba też w kursorze AI, że jak mamy tą opcję tych modeli z zaznaczoną thinking, to możemy sobie też z boku patrzeć mniej więcej tok rozumowania, co ten LLM robi, nie?
Wcześniej dużo ludzi podśmiechiwało się, że Google gdzieś tutaj przespał całą rewolucję LLMów i AI, natomiast okazuje się, że nie.
Z tego względu, że trzeba pamiętać, że te LLM-y, one mają uciętą w konkretnym miesiącu bazę swojej wiedzy.
Natomiast jeżeli sami zrobimy ten boilerplate, ten szablon, gdzieś tam wygenerujemy sobie i odpalimy ten LLM już na tym gotowej bazie, no to myślę, że jest wtedy mniejsze ryzyko po prostu też, że ten model sobie tam zacznie szaleć, dobierać jakieś dziwne narzędzia, z którymi my akurat nie mamy do czynienia.
Kolejna rada to jak tworzymy sobie już tą aplikację i ona tam w miarę działa, no to fajnie poprosić LLM o właśnie wygenerowanie takich realistycznych, przykładowych danych do tej aplikacji.
Bo wtedy też od razu widać, łatwiej też mi się wydaje, że LLM może złapać kontekst, co my budujemy, jak w tym kodzie już są jakieś dane, które potrzebujemy w naszej stronce czy w naszej aplikacji.
To trzeba pamiętać, że po pierwsze takie rzeczy się zdarzają w sofcie pisanym bez użycia LLM'a także, więc myślę, że jakieś luki w bezpieczeństwie zawsze będą się zdarzać.
Ostatnie odcinki
-
Hackathony w erze AI: więcej ficzerów czy bugów?
26.02.2026 10:50
-
AI w terminalu? Trzy przykłady, które mnie prze...
17.09.2025 10:23
-
Vibe Coding - praktyczne porady i eksperymenty
11.05.2025 11:43
-
jestem DevRelem od 10 msc
10.02.2025 12:09
-
Gry Web3, Solidity, Audyty, Decentralizacja - T...
04.06.2024 18:25
-
DevRel, Open-Source AI i bazy wektorowe - Kacpe...
17.05.2024 21:04
-
DevOps, Infrastruktura w kodzie, Platform Agnos...
12.11.2022 13:42
-
Czym są DAO?! - Rozmowa z saczyyy.eth
20.09.2022 06:51
-
Figma, UI vs DEV, Low code - Karol Stefański
27.07.2022 20:06
-
Web2 vs Web3 - Szymon Paluch
30.06.2022 13:23