Mentionsy
Stacja.IT Podcast 062 Marcin Wierzbiński - Vibe coding. Serio?
W najnowszym odcinku podcastu Stacji IT Łukasz Kobyliński rozmawia z Marcinem Wierzbińskim na temat vibe codingu, czyli tematu, który może budzić niemałe kontrowersje.
Pytania z odcinka:
1. Wprowadzenie i rozgrzewka
- Co to w ogóle jest „vibe coding"? Kiedy pierwszy raz się z tym określeniem spotkałeś?
- Czy vibe coding to nowa jakość w programowaniu?
- Jakie masz pierwsze skojarzenia z hasłem „vibe coding"?
2. Rzemiosło kontra atmosfera
- Czy vibe coding to konkretna technika pracy?
- Czy da się „produktywnie" programować bez struktury, tylko na flow?
- Jak vibe coding ma się do testów jednostkowych, architektury, dokumentacji?
3. Vibe coding vs real-life coding
- Jak wygląda vibe coding w porównaniu do pracy z technicznym długiem albo legacy code?
- Czy developerzy mogą się na tym przejechać? (brak dyscypliny, brak debugowania)
- A może vibe coding to właśnie ratunek przed wypaleniem i zniechęceniem?
4. Perspektywa zawodowa
- Czy dobry vibe to coś, co da się zbudować w zespole, czy to indywidualna sprawa?
- Jakie podejście promujesz u kursantów czy juniorów – vibe, czy coś innego?
- Jak współcześnie uczyć się programowania?
________________________________________________________
Posłuchaj rozmów z prowadzącymi na Stacji i dowiedz się, jakie są ciekawe trendy w IT, jaką ścieżkę rozwoju wybrać i jakimi tematami warto się zainteresować. Rozmawiamy o programowaniu, data science i budowaniu własnej kariery w IT. 😉 🌏 Więcej o nas przeczytasz na stronie: www.stacja.it
Sponsorzy odcinka (1)
"Cursor ma swój model taki, do którego możemy uderzać."
Szukaj w treści odcinka
Takie pojęcia generatywne AI wtedy jeszcze nie istniało.
Albo taka druga wersja, czyli mamy jakiś bardzo archaiczny kod w języku, który jest mało reprezentowalny na przykład w internecie, ale nie tylko.
Gemini Command Line, które można też wykorzystywać do przeglądania codebase'u, ale też do takiego jakby współpracy bezpośrednio w swoim terminalu z AI.
Tak, no i tutaj charakterystycznie to jest coś, co bym powiedział sprawia, że trochę mamy irytację na to AI, czyli mamy zbyt dużo oczekiwania wobec tej technologii.
Więc to wszystko faktycznie można wykorzystać do tego, żeby pomimo tego, że korzystamy z tych AI rozwiązań, żeby właśnie ograniczyć ewentualnie problemy z generowaniem błędów.
wysyłanie powiadomień mailowych itd.
Na pewno jeśli ktoś ma jakąś już wiedzę domenową, to jest mu znacząco łatwiej się douczyć z użyciem AI.
Raczej wspierając się jako taki pair programming, żeby ten model nam pomagał po prostu weryfikować to.
Okej, czyli jakby taka nauka właśnie tam języka, czy jakiejś technologii programistycznej jakby można powiedzieć w stylu klasycznym, czyli że od początku do końca, ale wspomagana AI-em w takim sensie, że jest naszym takim jakimś tutorem, jakimś takim właśnie tutaj
Tutaj się okazuje, że możemy wykorzystać trochę AI do tego, żeby właśnie też nam te testy tworzyło.
Jeśli chodzi o testy takie na poziomie funkcji, czyli takie testy jednostkowe, no to AI sobie tutaj stosunkowo dobrze z tym radzi.
I tak naprawdę okazuje się, że te wszystkie techniki, które kiedyś były jeszcze przed tą erą AI wykorzystywane w inżynierii programowania, teraz mogą mieć nawet większe znaczenie, bo okazuje się, że można powiedzieć, że mamy tutaj zatrudnionego takiego agenta, który siedzi koło nas, tworzy nam to oprogramowanie.
Jest już przy wsparciu AI.
Jeszcze zainteresowało mnie to, co mówiłeś też właśnie o testach integracyjnych, no bo to wymaga od modelu, żeby wiedział w ogóle jakie systemy są wykorzystywane przez daną aplikację, jakie są połączenia między modułami, być może nasza aplikacja korzysta z jakiejś bazy danych, może korzysta z jakiejś
Jeśli widzi na przykład, że wykorzystujemy sobie jakiś Django, jakiś REST framework, który jest w tym Django zaimplementowany,
Krótko mówiąc, czy można podejść do tego po partyzancku, czy tutaj są potrzebne jakieś polityki i zasady współpracy w zespole, jeśli korzystamy z modeli AI?
To są takie właśnie biblioteki, można sobie zbudować takie biblioteki promptów, czy w ogóle takie zasady jak współpracować z tym AI tak, żeby faktycznie było to w standardzie.
Ja też jestem, można powiedzieć, takim programistą jeszcze sprzed tego gen AI, gdzie bardzo mocno oczywiście pracowaliśmy z takimi rzeczami jak odpowiednie zarządzanie zadaniami, tworzenie kryteriów akceptacji, później review, pull requesty.
To co jest jakby interesujące to, że taki AI faktycznie z dużym codebase'em sobie stosunkowo będzie słabiej radził, bo będzie musiał przeglądać trochę większy kontekst.
I teraz też w tej ankiecie ze Stack Overflow pojawiły się testy związane z adaptacją AI, takich opinii korzyści.
W tej ankiecie aż 76% developerów używa lub planuje używać narzędzia AI w swoim workflow, czyli w pracy faktycznie.
I też miało to, 72% miało pozytywny stosunek do AI.
Opisywanie commitów, tak jak powiedziałem, można tego co-pilota dołączyć jako takiego reviewera pull requestów i okazuje się, że on może naprawdę dosyć trafnie niektóre jakieś problemy znajdować, które potencjalnie ktoś by mógł przeoczyć i też to automatyzuje pracę, bo później mamy dwóch reviewerów, jeden taki AI, drugi programista.
Czyli aż 35% profesjonalistów uważa, że AI ma problemy z radzeniem sobie ze złożonymi zadaniami i to faktycznie się pojawia.
Jakiś module, który właśnie nie jest jakimś prostym widokiem, czy prostym kontrolerem, czy jakimś modelem, tylko coś bardziej to jest złożone, to faktycznie tutaj już AI stosunkowo sobie z tym gorzej radzi albo w ogóle nie radzi.
Czy znanie właśnie bardziej takich rozwiązań związanych w ogóle z bezpieczeństwem, czyli to tworzenie oprogramowania z użyciem AI faktycznie sprawdza się, jeżeli mamy bardzo powtarzalne rzeczy, potrzebujemy jakichś
takie AI jest bardzo dobre w tzw.
algorytmiczne, czy nawet takiego krytycznego myślenia jest w stanie to AI troszkę podnosić.
Już teraz jakby to nie jest nam potrzebne, bo faktycznie to AI jest w stanie ten sam kod wygenerować można powiedzieć i też jakoś go zmodyfikować jeszcze odpowiednio pod nasze
Teraz mam wrażenie, że po prostu te moje kursy są takie przyjemniejsze, jeszcze ludzie po prostu przychodzą i mają zawsze takie, o, mam obok siebie AI, to on mi podpowie, co nie działa i jakby będę w stanie to załatać.
No i te błędy już później tak łatwo się tym AI nie da rozwiązać, więc coraz bardziej nam potrzebna jest już taka właśnie wiedza domenowa, ale budujemy tą, na przykład wiemy podstawowo jak jest zorganizowany system plików Django i jak to po prostu wszystko już, gdzie zaglądnąć i tak dalej, co dany plik robi.
Ale no też to AI nam pomaga trochę debugować niektóre rzeczy nawet.
Ale jest też taka pułapka, że im więcej generujemy z użyciem AI, no to mamy mniejszą kontrolę nad jakością kodu, ale też w ogóle nad tym, co się w tym kodzie dzieje.
System kontroli wersji, jak flow, na przykład przy wytwarzaniu kolejnych funkcjonalności czy łataniu jakichś błędów, jest tutaj kluczowy, żeby mieć większą kontrolę nad tym, jak wychodzi ten kod spod naszej ręki, czy właściwie ręki AI, ale zarządzaną w jakiś sposób też przez nas.
Ostatnie odcinki
-
Stacja.IT Podcast 064 Maks Piechota - Dlaczego ...
21.01.2026 13:35
-
Stacja.IT Podcast 063 Krzysztof Kozioł - Confit...
16.09.2025 06:00
-
Stacja.IT Podcast 062 Marcin Wierzbiński - Vibe...
02.09.2025 06:00
-
Stacja.IT Podcast 061 Ewelina Kurtys - Komputer...
31.07.2025 12:21
-
Stacja.IT Podcast 060 Magdalena Therkildsen - K...
18.07.2025 08:20
-
Stacja.IT Podcast 059 Bartłomiej Schmidt - Czym...
19.02.2025 10:14
-
Stacja.IT Podcast 058 Patryk Palej - Nie tylko ...
17.12.2024 10:06
-
Stacja.IT Podcast 057 Mateusz Kamiński - Czy Ja...
06.12.2024 10:49
-
Stacja.IT Podcast 056 Aleksandra Tomaszewska, P...
04.07.2024 07:31
-
Stacja.IT Podcast 055 Maciej Brzeziński - Błędy...
09.05.2024 09:09