Mentionsy

FullStak
FullStak
11.05.2025 11:43

Vibe Coding - praktyczne porady i eksperymenty

Praktyczne doświadczenia i przemyślenia na temat "vibe codingu" – czyli tworzenia oprogramowania głównie za narzędzi AI, minimalizując ręczne pisanie kodu.


Odcinek porusza zarówno zalety, jak i pułapki tej metody, a także rozprawia się z popularnymi mitami i obawami dotyczącymi kodu generowanego przez AI.


Polecane podcasty na ten temat:

Building a magical AI code editor used by over 1m developers in 4 months: Inside Windsurf
OpenAI’s CPO on how AI changes must-have skills, moats, coding, startup playbooks, more | Kevin WeilHow he built iOS apps that PRINT with Cursor + Claude

Szukaj w treści odcinka

Znaleziono 8 wyników dla "LLM"

Dodatkowo chciałem też używać LLM-ów do generowania tych kartek, czyli na przykład zamiast ręcznie wpisywać 50 kartek do nauki języka niemieckiego, czy tam angielskiego, czy hiszpańskiego, no to będę mógł po prostu napisać do LLM-a, hej wygeneruj mi 50 kartek do nauki słówek z hiszpańskiego, z tematyki chodzenie do baru, jakkolwiek śmiesznie ta kategoria brzmi, no i wtedy mogę sobie z niej korzystać.

Bardzo mi się podoba też w kursorze AI, że jak mamy tą opcję tych modeli z zaznaczoną thinking, to możemy sobie też z boku patrzeć mniej więcej tok rozumowania, co ten LLM robi, nie?

Wcześniej dużo ludzi podśmiechiwało się, że Google gdzieś tutaj przespał całą rewolucję LLMów i AI, natomiast okazuje się, że nie.

Z tego względu, że trzeba pamiętać, że te LLM-y, one mają uciętą w konkretnym miesiącu bazę swojej wiedzy.

Natomiast jeżeli sami zrobimy ten boilerplate, ten szablon, gdzieś tam wygenerujemy sobie i odpalimy ten LLM już na tym gotowej bazie, no to myślę, że jest wtedy mniejsze ryzyko po prostu też, że ten model sobie tam zacznie szaleć, dobierać jakieś dziwne narzędzia, z którymi my akurat nie mamy do czynienia.

Kolejna rada to jak tworzymy sobie już tą aplikację i ona tam w miarę działa, no to fajnie poprosić LLM o właśnie wygenerowanie takich realistycznych, przykładowych danych do tej aplikacji.

Bo wtedy też od razu widać, łatwiej też mi się wydaje, że LLM może złapać kontekst, co my budujemy, jak w tym kodzie już są jakieś dane, które potrzebujemy w naszej stronce czy w naszej aplikacji.

To trzeba pamiętać, że po pierwsze takie rzeczy się zdarzają w sofcie pisanym bez użycia LLM'a także, więc myślę, że jakieś luki w bezpieczeństwie zawsze będą się zdarzać.