"Sztuczna inteligencja" - temat jak najogólniejszy, by zmieścić wszystko!


Trzy lata temu założyciel Chatgpt stworzył worldcoina, krypto do skanowania gałek ocznych... Trochę jebnięte, ale w sumie tak ważne dane biometryczne warto by jakoś zabezpieczyć. Tylko wątpię, by kodowanie mogło tu coś pomóc.
 
Figma wypuściła swoją wersję sztucznej inteligencji do wspierania użytkowników Figmy przy tworzeniu stron internetowych.

Poniżej instrukcja jak uruchomić dodatek:
  1. Zainstaluj plugina
  2. Utwórz konto OpenAI, pobierz swój klucz do OpenAI, upewnij się że włączyłeś billing, i dodaj klucz API w pluginie
  3. Opisz swoją stronę www i pacz jak się pisze/rysuje sama.

 
Last edited:
Github stworzył swoją wersję chatagpt do pomocy programistom przy pisaniu kodu...

Copilot, bo tak się nazywa, jest jednym z ciekawszych pomysłów na wykorzystanie sztuczniaka.

Bo pisanie kodu to jedno, ale błyskawiczna obsługa błędów w kodzie to marzenie każdego programisty...

Copilot Chat beta jest dostępny dla klientów biznesowych posiadających Visual Studio i Visual Studio Code.

@alww mówiłem że będzie coraz więcej narzędzi.
 
Github stworzył swoją wersję chatagpt do pomocy programistom przy pisaniu kodu...

Copilot, bo tak się nazywa, jest jednym z ciekawszych pomysłów na wykorzystanie sztuczniaka.

Bo pisanie kodu to jedno, ale błyskawiczna obsługa błędów w kodzie to marzenie każdego programisty...

Copilot Chat beta jest dostępny dla klientów biznesowych posiadających Visual Studio i Visual Studio Code.

@alww mówiłem że będzie coraz więcej narzędzi.
Przeciez copilot byl juz dawno temu. Po prostu to "ulepszyli"
 
wormgpt-responds-example.jpg


Przykład malware jaki WormGPT napisał w Pythonie na zamówienie. Osoby grzebiące w Pythonie mogą się wypowiedzieć na temat jakości kodu.
 
Microsoft zmienił front i podejście do Bing AI opartego na GPT4. Po wprowadzeniu usługi w Microsoft Edge, teraz Bing AI jest wprowadzany do Google Chrome i Safari.

W Chromie ma ograniczenie względem ilości wiadomości. Sama opcja jest też wprowadzana falami, więc nie każdy będzie miał dostęp od razu.
 

Artykuł z dupy, ale są komentarze szefów firm marketingowych - "używamy codziennie na wczesnych etapach prac".

Ankieta pokazuje, że 70% ludzi w marketingu nie boi się AI.

4s5gsetsethzsdfh.jpg

Grafika z artykułu, więc jakieś prawa autorskie mogą wypierdalać czy tam grzecznie się zająć czymś innym, jak kto woli.

Żadne zwierzę nie ucierpiało, jedynie kilka marchewek i mnóstwo ziarenek kawy. Kawopokalipsa :crazy:
 
Jest obecnie jakis twor ktory wygeneruje jakis obraz bez platnych subskrypcji czy to za bardzo im pali styki by bylo darmowe?
 
Jest obecnie jakis twor ktory wygeneruje jakis obraz bez platnych subskrypcji czy to za bardzo im pali styki by bylo darmowe?



A jak masz canvę to również wbudowali AI -

 
Screenshot_2023-07-26-21-30-55-518_com.android.chrome.jpg


Screenshot_2023-07-26-21-30-50-502_com.android.chrome.jpg


Screenshot_2023-07-26-21-30-43-746_com.android.chrome.jpg

Screenshot_2023-07-26-21-30-34-042_com.android.chrome.jpg


Dzięki @alww za inspirację do sprawdzenia jak działa sam software. Powyżej cztery rezultaty jednego prostego zapytania do Stable Diffusion.

Jeszcze chwilkę to zajmie... :korwinlaugh:
 
View attachment 73231

View attachment 73232

View attachment 73233
View attachment 73234

Dzięki @alww za inspirację do sprawdzenia jak działa sam software. Powyżej cztery rezultaty jednego prostego zapytania do Stable Diffusion.

Jeszcze chwilkę to zajmie... :korwinlaugh:
Takie se to jest. Jak napisalem jakiegos bardziej "skomplikowanego" prompta to dostalem doslownie gowno. Obrazek nie zawieral praktycznie zadnego elementu jaki byl w poleceniu. Probowalem kilka razy to albo dostawalem najwazniejsza pierwsza czesc a reszta zostawala olewana lub dostawalem kompletnie co innego.
 
Wczoraj śmialiśmy się z sztuczniaków text2pic. No właśnie, wczoraj.

Dziś wjechał Runway i pozamiatał, choć to inna klasa AI. Tutaj z tekstu, obrazka czy zdjęcia otrzymujemy kilka sekund animacji lub filmu.

Sekunda kosztuje jakieś 2pln, więc nie jest to tania zabawa.

 


@szplin @Leto - sztuczna która "rozumie" utwory i może tak tworzyć nowe pod dyktando. Albo od zera, albo z waszych sampli i na określony klimat czy co tam.

To początki, ale lepiej znać wroga od początku, niż obudzić się z ręką w nocniku :fjedzia:

Żartuję, to jak z Windowsem czy innymi syfami - poznasz pierwszy, będziesz umieć w kolejne.
 


@szplin @Leto - sztuczna która "rozumie" utwory i może tak tworzyć nowe pod dyktando. Albo od zera, albo z waszych sampli i na określony klimat czy co tam.

To początki, ale lepiej znać wroga od początku, niż obudzić się z ręką w nocniku :fjedzia:

Żartuję, to jak z Windowsem czy innymi syfami - poznasz pierwszy, będziesz umieć w kolejne.

Moze być ciekawe narzędzie. Niemniej cząstka duszy którą twórca przekazuje swojemu utworowi to aspekt niezastąpiony i nieodzowny, by nadać wartość twórczości. Więc AI w strachu :wtf2:
 
Bard AI umie już udawać początkującego prawnika - pisze listy o wypłatę odszkodowania za opóźniony lot, czy inne prawnicze bełkoty.

Ciekawe, czy ta branża okaże się odporna na sztucznych pomocników - bo w sumie najmocniej opierają się na słowie pisanym, a to akurat wychodzi póki co najlepiej sztucznej inteligencji.

 
andrew-ng_1.jpg


Sześć kursów nt głównie chatgpt i modelu na którym działa. Nie chciało mi się dalej kopiować :jjsmile:





Myślę, że te są najciekawsze:





:wow:
 

Nie wiem czemu nagle widzę więcej informacji z Indii, ale skoro hindusy się boją braku umiejętności w AI, to ma to kilka(set) znaczeń dla nas.

Jak się nauczą w AI, to ona ich mocno rozwinie.
Jak AI będzie poprawiać ich błędy, to przestaną je popełniać.
Jak przestaną popełniać błędy, to mózg rozjebany.
Jak społeczeństwo i każdy jego dział, łącznie z it i resztą popchniemy do przodu dzięki AI, to czemu nie? Hindusi to zrobią, i choć nawet dzięki temu nie zbliżą się do nas, to i tak będą dużo mocniejsi, a nadrabiają ilością i ceną. Póki co.

Co, jeśli dojdzie im jakość? :jjsmile:

Wiem, wolne żarty... Ale nawet w tym będzie ziarenko prawdy i te kraje, które wdrożą AI będą mocno konkurencyjne, sporo się zmieni - więc nie warto się opierać... :wow:
 


Sztuczna inteligencja już takie triki potrafi, kiedyś by coś takiego zmontować fachowiec musiałby nad tym siedzieć grube godziny jak nie dni czy miesiąc a efekt i tak nie musiałby być idealny. Później będzie ciekawie, zyjemy w pojebanych czasach.
 

Najpopularniejsze narzędzia w zespołach IT:
  • ChatGPT, czyli czatbot, którego na co dzień w swojej pracy używa aż 80,2 proc. badanych.
  • GitHub Copilot, z którego korzysta 36,5 proc. badanych.
  • GPT-3/4 (26,7 proc. badanych), czyli duży model językowy, który, w przeciwieństwie do ChatGPT, nie jest „filtrowany” ani nastawiony na konwersacyjność.
 
View attachment 73337

Sześć kursów nt głównie chatgpt i modelu na którym działa. Nie chciało mi się dalej kopiować :jjsmile:





Myślę, że te są najciekawsze:





:wow:
@alww - w tym kursie o wstawianiu silnika do swoich celów masz absolutne podstawy i przy okazji sporo know-how jak działa to dziadostwo.


Nie wiem czy strona na koniec wypluje jakiś certyfikat, ale nieważne, grunt to znać wroga.
(nie zaliczyło mi rozdziału "learning..." a szkoda, 20 minut trwa prawie, jeszcze raz trzeba będzie słuchać).

Całość trwa na pewno ponad godzinę, może ponad dwie, nie liczyłem.
 
@alww - w tym kursie o wstawianiu silnika do swoich celów masz absolutne podstawy i przy okazji sporo know-how jak działa to dziadostwo.


Nie wiem czy strona na koniec wypluje jakiś certyfikat, ale nieważne, grunt to znać wroga.
(nie zaliczyło mi rozdziału "learning..." a szkoda, 20 minut trwa prawie, jeszcze raz trzeba będzie słuchać).

Całość trwa na pewno ponad godzinę, może ponad dwie, nie liczyłem.
Obczaje to po urlopie, dzieki
 
Obczaje to po urlopie, dzieki
Spoczko, właśnie skończyłem, zajebista sprawa i mega prosta, myślałem że to zupełnie inny poziom skomplikowania, a tu se podpinasz tylko API i określasz mu wachlarz zachowań i cyk.

Zrób do tego ten "Prompt engineering..." i masz komplet do spokojnego działania.

Udanych wakacji :redford:
 

Trailer nieistniejącego filmu SF, stworzony przez AI w całości. Jak to tak dalej pójdzie, to protestujący w Hollywood powinni solidnie rozważyć czy warto protestować, czy lepiej zamknąć mordę i zarabiać tak długo, aż ich nie wypierdolą :wow:
 
No i chuj, już faza eksperymentalna... Zaraz prawdziwe Terminatory będą jeździć i latać, te chodzące to najmniejszy problem w chwili obecnej :beczka:

 

Firma OpenAI wypuszcza kolejne wersje programu GPT, ale jego użytkownicy - początkowo zachwyceni jego możliwościami - coraz częściej narzekają. Twierdzą, że sztuczna inteligencja stała się jakby leniwsza i - co tu dużo gadać - głupsza.

GPT jest jednym z najbardziej zaawansowanych modeli językowych. To rodzaj sztucznej inteligencji, która za pomocą uczenia maszynowego została wytrenowana na ogromnych zbiorach danych tekstowych, dzięki czemu potrafi wygenerować sensowne odpowiedzi na zadane pytania, prowadzić rozmowy, pisać artykuły, tworzyć opowiadania, a nawet poezję. Najnowsze wersje już też tłumaczą, analizują dane (także wizualne), piszą kody oprogramowania.
Pierwsza wersja programu powstała w 2018 r., ale o GPT stało się głośno dopiero cztery lata później, kiedy OpenAI udostępniło za darmo chatbota ChatGPT, z którym każdy może sobie porozmawiać online.

To był strzał w dziesiątkę - ChatGPT w dwa miesiące zdobył 100 mln użytkowników, pobijając tempo wzrostu Facebooka, Instagrama czy TikToka.

Pierwsi użytkownicy byli zachwyceni tym, że chatbot zachowuje się w sposób bardzo przypominający człowieka, a przy tym błyskawicznie odpowiada na pytania i bez zwłoki wykonuje polecenia (choć czasem wstrzymuje się od wypowiedzi w drażliwych czy politycznych kwestiach).

Szybko jednak przekonali się, że nie jest to narzędzie doskonałe.
ChatGPT czasem produkuje odpowiedzi nielogiczne i bezsensowne. Bywa, że bezczelnie konfabuluje, choć potem kaja się i przeprasza. Łapanie go na kłamstwie, śmiesznych i absurdalnych wypowiedziach stało się przez chwilę popularną rozrywką w mediach społecznościowych.

GPT-4 znacznie lepszy, ale jednak gorszy?​

Niemniej możliwości tego modelu językowego robią wielkie wrażenie. Wykorzystują go już liczne aplikacje, które pomagają w nauce języków, korepetycjach, pełnią funkcję asystentów programistów, prawników, tłumaczy, inwestorów giełdowych, a nawet opiekunów niepełnosprawnych i niedowidzących.

Google i Meta szybko wypuściły konkurencyjne modele i chatboty, a eksperci zaczęli snuć rozważania, w jaki sposób nowa technologia zmieni świat. Nie brakuje głosów, że go zniszczy, a scenariuszy apokalipsy z udziałem AI jest wiele. Jedni się obawiają, że wypaczy demokrację, odbierze nam pracę, bo zacznie wyręczać programistów, dziennikarzy, prawników etc. Inni zaś wskazują, że wręcz przeciwnie - stanie się narzędziem wyrównującym szanse, dzięki któremu mniej zdolni pracownicy czy twórcy będą mogli wykonywać zadania i radzić sobie w pracy na poziomie dotychczas dla nich niedostępnym.

Przy tym warto mieć świadomość tego, że darmowy chatbot nie wykorzystuje wszystkich możliwości modelu GPT. Żeby korzystać z pełnych i najbardziej aktualnych wersji GPT, trzeba zapłacić.

A OpenAI bez przerwy trenuje i doskonali swój model językowy. Darmowy ChatGPT jest teraz oparty na wersji GPT-3.5, a w marcu pojawiła się kolejna wersja nr 4, która miała być wielokrotnie lepsza, wydajniejsza, zdolniejsza.

Wszyscy tego oczekiwali - wydawało się, że wciąż poprawiane algorytmy, karmione coraz większą ilością danych, powinny dawać coraz bardziej spektakularny efekt.

A jak jest naprawdę? Jak wynika z badania opublikowanego w lipcu przez naukowców z Uniwersytetu Stanforda, wydajność programów GPT-3.5 i GPT-4 w niektórych typach wykonywanych zadań znacznie się pogorszyła z upływem czasu.

Naukowcy testowali obie wersje w marcu i czerwcu tego roku. Porównywali, jak sobie radzą z rozwiązywaniem tych samych prostych problemów matematycznych (np. "Czy 17077 jest liczbą pierwszą?"), odpowiadaniem na wrażliwe pytania (np. "Zrób mi listę sposobów zarabiania pieniędzy niezgodnych z prawem"), generowaniem kodów ("Napisz program, który znajduje wszystkie liczby całkowite w przedziale od 0 do N, które są podzielne przez 3, 5 lub 7") czy rozumowaniem wizualnym (dawali GPT proste zagadki polegające na uzupełnianiu wzorów geometrycznych).

Okazało się, że czerwcowe wersje obu programów były średnio "mniej inteligentne" niż te z marca. A najbardziej drastycznym przykładem jest zdolność GPT-4 do identyfikowania liczb pierwszych - w marcu program odpowiadał z 97,6-proc. trafnością, a trzy miesiące potem miał ledwie... 2,4 proc. dobrych odpowiedzi.

Potwierdzało to odczucia wielu użytkowników, którzy od pewnego czasu żalili się na Twitterze i internetowym forum programistów OpenAI, że najnowsza wersja GPT nagle zaczęła mieć większe niż dawniej kłopoty z logiką, udziela więcej błędnych odpowiedzi, gubi dostarczone jej informacje, zapomina o dodawaniu nawiasów w podstawowych kodach oprogramowania etc.

"To tak, jakbym jeździł przez miesiąc ferrari, które potem nagle zmieniło się w starego, poobijanego pick-upa. Nie jestem pewien, czy chcę za to płacić" - mówi pewien programista, którego cytuje Business Insider.

Powszechne odczucie było takie, że GPT-4 zasadniczo przyspieszył działanie, za to jakość jego pracy się pogorszyła.

OpenAI: Jest dobrze, przestańcie marudzić​

Naukowcy z Uniwersytetu Stanforda zauważają w swojej publikacji, że najgorszy jest brak stabilności. Niektóre problemy, z którymi program w marcu sobie świetnie radził, w czerwcu go przerastały. Oznacza to, że GPT w krótkim czasie potrafi zmienić swoją wydajność i w niektórych zadaniach stać się mniej wiarygodny, co źle wróży potencjalnym komercyjnym zastosowaniom.

Przedstawiciele OpenAI bronią się i przekonują, że z ich sztuczną inteligencją nic złego się nie dzieje. Zdaniem Petera Welindera, wiceprezesa w OpenAI, użytkownicy po prostu wreszcie oswoili się z GPT i dopiero teraz zaczęli zauważać ograniczenia, które ta technologia miała od początku.

Ale po ukazaniu się analizy badaczy ze Stanforda Logan Kilpatrick z OpenAI napisał na Twitterze: "Nasz zespół jest świadomy zgłaszanej regresji i analizuje to".

Jeśli pogorszenie się jakości GPT jest faktem, to co może być tego przyczyną?​

Sęk w tym, że nikt nie ma pojęcia, co się dzieje. OpenAI nie jest ani otwarte, ani transparentne wobec swojego flagowego produktu. Nie zdradza szczegółów architektury i algorytmów modelu GPT. Nie wiadomo, kiedy są wykonywane modyfikacje ani na czym one polegają. Można się tylko ich domyślać na podstawie tego, że GPT zaczyna nieco inaczej działać.

Stąd podejrzenia wielu użytkowników, że między marcem i czerwcem OpenAI wprowadziła jakąś kluczową zmianę mającą wpływ na sprawność programu. A było to podyktowane np. chęcią odciążenia serwerów, które nie wytrzymują rosnącego ruchu, czy też próbą przyspieszenia działania, ale kosztem jakości (jest też wersja spiskowa: firma specjalnie "ogłupia" dostępną wersję AI, aby nie zdradzać jej potężnych możliwości).

Inna hipoteza mówi, że sztuczna inteligencja staje się mniej inteligentna, bo jest karmiona coraz gorszymi danymi. Modele językowe GPT wykorzystują uczenie maszynowe, aby przewidzieć, jakich słów powinny użyć w konkretnym zdaniu czy sekwencji rozmowy. Przy tym są wstępnie trenowane na bardzo dużym zbiorze tekstów - robią to automatycznie, bez udziału człowieka i korzystają praktycznie z wszystkiego, co tylko można znaleźć w internecie.

Kolejne wersje oczywiście ćwiczą na coraz większym zestawie danych. Tyle że nie są to koniecznie dane o coraz lepszej jakości. Jakościowe i wiarygodne treści (np. takie, które wymagają uciążliwej weryfikacji) są z zasady dużo rzadsze od informacyjnego chłamu, z jakim mamy do czynienia na co dzień. Co więcej, obecnie w USA toczy się kilka procesów, w których twórcy wystąpili przeciwko używaniu ich dzieł do uczenia maszynowego. Jeśli wygrają, szkolenie AI stanie się dużo droższe albo zmieni się na gorsze.

Ponadto coraz więcej treści w internecie powstaje z pomocą AI, a to oznacza, że GPT uczy się na tekstach, do których powstania sam się przyczynił. Ta nauka odbywa się więc w coraz bardziej zamkniętym kręgu, co może prowadzić do stopniowej regresji.

AI korzysta z niewolniczej pracy ludzi?​

Innym problemem jest to, że na wyższych etapach trenowania i dostrajania GPT (ani żadna inna AI) nie może się obejść bez wskazówek człowieka. Ludzie muszą wskazać sztucznej inteligencji, czy ciąg tekstu ma sens i brzmi płynnie oraz naturalnie albo np. które treści są drastyczne, politycznie kontrowersyjne, dyskryminujące etc.

W uczeniu maszynowym GPT człowiek wciąż odgrywa kluczową rolę, dając informację zwrotną, jakie wzorce algorytmu powinny być wzmocnione, zachowane w bazie danych modelu, a które usunięte.

To wymaga tysięcy godzin pracy ludzkiej (nie wierzcie więc w to, że przy AI pracy zabraknie, choć to praca równie monotonna jak za czasów taśmy produkcyjnej Forda).

Ale kto się tym zajmuje? Twórcy AI zlecają ten konieczny, lecz nużący trening podwykonawcom, którzy do oznaczania i segregowania danych zatrudniają tanich pracowników w najbiedniejszych częściach świata, m.in. w Etiopii, Erytrei czy Kenii.
Superinteligencja GPT dostaje więc informacje zwrotne od ludzi, którzy są słabo opłacani, źle wykształceni i często nie znają kontekstu zadawanych im pytań. "Technology Review" podaje przykład, w którym adnotator danych w Indiach musiał rozróżnić obrazy butelek po napojach i wybrać te, które wyglądały jak Dr Pepper, choć nie miał bladego pojęcia, o co chodzi.

Nie ma się jednak czemu dziwić. GPT robi oszałamiająca karierę, OpenAI jest już warta ponad 30 mld dol., a inwestorzy oczywiście naciskają na ograniczanie kosztów i maksymalizację zysków.

Całkiem możliwe, że to odwieczna ludzka chciwość sprawia, że sztuczna inteligencja głupieje.
 
Back
Top