Nowy model od OpenAI - GPT-4 Omni - dostępny za darmo - integracja audio, wideo, tekstu i obrazu w jednym modelu

Nowy model od OpenAI - GPT-4 Omni - dostępny za darmo - integracja audio, wideo, tekstu i obrazu w jednym modelu

hejto.pl
https://openai.com/index/hello-gpt-4o/
#openai właśnie zaprezentowało demo nowego modelu GPT-4o (GPT-4 Omni). Integracja audio, wideo, obrazu i tekstu w jednym modelu.

Dostępny dla użytkowników darmowych (z limitami).

Dostępna będzie aplikacja desktop.

Znacznie lepszy od GPT-4 Turbo.


Dla "trudnych" promptów dysproporcja jest jeszcze większa:


#sztucznainteligencja #nauka #technologia #ai #si #bukmacherka #ciekawostki #eacc

Wkrótce na YT dostępne będzie nagranie z prezentacji, rollout ma nastąpić stopniowo w ciągu kolejnych kilku tygodni.

Komentarze (22)

Vorlon2

Przy wysokim obciążeniu serwerów, automatem przełącza na gorszy GPT 3.5 (na razie)

Klopsztanga

@Vorlon2 gpt 4o zapierdala szybciej niz 3.5, więc odwrotnie raczej.

Vorlon2

@Klopsztanga Ja na razie nie widzę u siebie na liście 4.0

Klopsztanga

@Vorlon2 plebs nie widzi ( ͡° ͜ʖ ͡°)

fervi

@Vorlon2 U mnie nie ma na liśćie GPT4, po prostu po wpisaniu prompt i dostaniu odpowiedzi możesz wybrać odpowiedź czy ma być dla 3.5 czy 4

Vorlon2

@fervi Dla biedoty bez wykupionej subskrypcji wersja 4o na razie jest niedostępna. (niedługo ma być, ale limitowana). Można wysłać kilka pytań za free używając https://Poe.com albo https://You.com lub https://chat.lmsys.org/ -w zakładce Direct Chat. Multimodalność na smartfonie (głos, wideo) będzie i tak płatna (dla subskrybentów) (wymaga większej mocy obliczeniowej).

5eb28463-2120-4a13-b4af-693e2244d6a2
fervi

@Vorlon2 Wiesz, nie znam się, ale u mnie jest niby GPT4, a nie płacę, ma dostęp do internetu, ale nie robi obrazków

Vorlon2

@fervi No dziwne. Ja jakimś cudem mam dostęp do Claude Sonnet (i to bez VPN), pomimo że w Polsce nie działa. Do Bard 1.5 PRO - udaje się przez VPN. Lama3 z meta.ai przez chwilę działała przez VPN, ale teraz wrzeszczy o konto na FB i normalnie nie wpuszcza, ale działa przez GroQ.

Vorlon2

@fervi Zmieniłem konto na inne i nagle mi się nowe GPT 4.o włączyło. Na starym wisi wciąż 3.5 - dziwne.

Vorlon2

Jak mogę uzyskać dostęp do GPT-4, GPT-4 Turbo i GPT-4o?

Dowiedz się, jak uzyskać dostęp do GPT-4o w ChatGPT oraz GPT-4, GPT-4 Turbo i GPT-4o w interfejsie API OpenAI


Zaktualizowano dzisiaj

Co to jest GPT 4o?

GPT-4o to nowy flagowy model OpenAI, który potrafi analizować dźwięk, obraz i tekst w czasie rzeczywistym.


GPT-4o będzie początkowo dostępny w ChatGPT i API jako model tekstowy i wizyjny (ChatGPT będzie nadal obsługiwać głos poprzez istniejącą wcześniej funkcję trybu głosowego). W szczególności GPT-4o będzie dostępny w ChatGPT Free, Plus i Team (wkrótce w wersji Enterprise) oraz w interfejsach Chat Completions API, Assistants API i Batch API.


Dostęp do GPT-4, GPT-4 Turbo i GPT-4o w API OpenAI

GPT-4 Turbo kontra GPT-4o

GPT-4o ma tę samą wysoką inteligencję, ale jest szybszy, tańszy i ma wyższe limity szybkości niż GPT-4 Turbo. Konkretnie:


Ceny: GPT-4o jest o 50% tańszy niż GPT-4 Turbo i kosztuje 5 USD/M tokenów wejściowych i 15 USD/M tokenów wyjściowych).


Limity szybkości: limity szybkości GPT-4o są 5 razy wyższe niż w przypadku GPT-4 Turbo — do 10 milionów tokenów na minutę.


Szybkość: GPT-4o jest 2 razy szybszy niż GPT-4 Turbo.


Wizja: Możliwości wizyjne GPT-4o sprawdzają się lepiej niż GPT-4 Turbo w ocenach związanych z możliwościami wizyjnymi.


Wielojęzyczność: GPT-4o ma lepszą obsługę języków innych niż angielski w porównaniu z GPT-4 Turbo.


GPT-4o ma obecnie okno kontekstowe o wielkości 128 tys., a data graniczna wiedzy przypada na październik 2023 r.


Dostępność w API

GPT-4o jest dostępny dla każdego, kto ma konto OpenAI API i można używać tego modelu w interfejsach Chat Completions API, Assistants API i Batch API. Wywoływanie funkcji i tryb JSON są również obsługiwane przez ten model. Możesz także rozpocząć zabawę za pośrednictwem placu zabaw.


Po pomyślnej dokonaniu płatności w wysokości co najmniej 5 USD (poziom wykorzystania 1) uzyskasz dostęp do modeli GPT-4, GPT-4 Turbo i GPT-4o za pośrednictwem interfejsu API OpenAI.


Dowiedz się więcej o dodawaniu środków do swojego konta OpenAI.


Aktualne ceny GPT-4o w API są dostępne na naszej stronie z cenami API.

Limity żądań API

Należy pamiętać, że limity stawek ChatGPT są niezależne od limitów stawek API. Więcej o limitach stawek API możesz dowiedzieć się tutaj.


Limity stawek API możesz sprawdzić w sekcji limitów Platformy API.

Prosimy jednak o cierpliwość — spodziewamy się ogromnego popytu i w nadchodzących miesiącach będziemy zwiększać skalę i optymalizować nasze systemy.


Jak postępujemy z danymi przesyłanymi do API OpenAI

Podobnie jak w przypadku reszty naszej platformy, dane i pliki przekazywane do interfejsu API OpenAI nigdy nie są wykorzystywane do uczenia naszych modeli, chyba że wyraźnie zdecydujesz się na szkolenie. Więcej informacji na temat naszych standardów przechowywania danych i zgodności można przeczytać tutaj.


Dostęp do GPT-4o za pomocą ChatGPT

Poziom bezpłatny ChatGPT

Użytkownicy korzystający z warstwy Bezpłatna będą domyślnie korzystać z GPT-4o z ograniczeniem liczby wiadomości, które mogą wysyłać przy użyciu GPT-4o, które będzie się różnić w zależności od bieżącego wykorzystania i zapotrzebowania. Gdy opcja ta będzie niedostępna, użytkownicy warstwy bezpłatnej zostaną przełączeni z powrotem do wersji GPT-3.5.

Vorlon2

Bezpłatni użytkownicy otrzymują również ograniczony dostęp do wiadomości za pomocą zaawansowanych narzędzi, takich jak:


Analiza danych


Przesyłanie plików


Przeglądać


Odkrywanie i używanie GPT


Wizja


GPT-4o posiada zaawansowane możliwości wizyjne, co zwiększa dokładność rozumienia udostępnianych obrazów.


Użytkownicy poziomu bezpłatnego mogą w dowolnym momencie przejść na wersję Plus, klikając ChatGPT:


ChatGPT Plus i zespół

Abonenci ChatGPT Plus i Team mają dostęp GPT-4 i GPT-4o na chatgpt.com z większym limitem wykorzystania.


Użytkownicy ChatGPT Plus i Team będą mogli wybrać GPT-4o z rozwijanego menu u góry strony:


Od 13 maja 2024 roku użytkownicy Plusa będą mogli wysyłać do 80 wiadomości co 3 godziny na GPT-4o i do 40 wiadomości co 3 godziny na GPT-4. Możemy zmniejszyć limit w godzinach szczytu, aby GPT-4 i GPT-4o były dostępne dla jak największej liczby osób.


Limity wiadomości GPT-4 i GPT-4o dla użytkownika w obszarze roboczym zespołu ChatGPT są wyższe niż w przypadku ChatGPT Plus.


Pamiętaj, że niewykorzystane wiadomości nie kumulują się (tzn. jeśli odczekasz 6 godzin, nie będziesz mieć 80 wiadomości do wykorzystania przez następne 3 godziny na GPT-4).


CzatGPT Przedsiębiorstwo

Klienci ChatGPT Enterprise wkrótce będą mieli dostęp do GPT-4o.


Plan ChatGPT Enterprise został zaprojektowany specjalnie z myślą o potrzebach dużych przedsiębiorstw, z nieograniczonym, szybkim dostępem do GPT-4o i GPT-4.


Nowe rozmowy na koncie ChatGPT Enterprise będą domyślnie ustawione na GPT-4o. Użytkownicy ChatGPT Enterprise będą mogli wybrać inne modele z rozwijanego menu u góry strony:


ChatGPT Enterprise oferuje również bezpieczeństwo i prywatność klasy korporacyjnej, dłuższe okna kontekstowe do przetwarzania dłuższych danych wejściowych, nieograniczony, szybki dostęp do zaawansowanych narzędzi, takich jak analiza danych, opcje dostosowywania i wiele więcej.


Jeśli chcesz kupić ChatGPT Enterprise dla swojej organizacji, skontaktuj się z naszym zespołem sprzedaży. W sekcji „Którymi naszymi produktami lub usługami jesteś zainteresowany?”, wpisz „ChatGPT Enterprise”.

znany_i_lubiany

czekam aż wyjdzie że to wszystko robią hindusi na żywo

A tak na serio to zobaczymy jak głupi jest ten nowy model, póki co poprzednie konfabulowały bardzo mocno, miały kaganiec którego nie ma pitbull sąsiada, i miały zbierać mega dużo informacji z interakcji z człowiekiem/produktem.

Vorlon2

@znany_i_lubiany Szału we wszystkich benchmarkach nie ma:

aec839cc-0ef5-4fb4-a7af-35cffe1fcc17
znany_i_lubiany

@Vorlon2 Lex Friedman na bieżąco zapraszał gości od AI, i póki co to będą się skupiać nad mniejszym poborem prądu i zmniejszeniem opóźnień dla użytkownika, tak aby prostszy model mógł chodzić np. lokalnie na telefonie, a skomplikowany w sieci.

Vorlon2

@znany_i_lubiany Bawię się lokalnie Ollamą i małymi skwantyzowanymi modelami. Niestety lokalnie bez internetu, na mojej bieda karcie z 2GB za dużo powalczyć się nie da. Jest coraz lepiej i tak z modelu na model. Szybkie to to nie jest, ale od biedy da się używać do prostych rzeczy. Niestety małe modele i skwantyzowane do Q4 K_M są mimo wszystko dość głupie (nie wiem co te benchmarki pokazują-realnie tak różowo nie jest) (zwłaszcza po polsku). Wczoraj nawet lokalnie uruchomiłem model z RAG z dostępem do pdf dzięki https://chat-preview.lobehub.com/ i Ollama.

Grewest

@Vorlon2 Polecisz jakiś poradnik od zabawy z chatami na lokalnym komputerze?

Vorlon2

@Grewest Na Yt sporo jest poradników.


https://ollama.com/

https://www.markhneedham.com/blog/2023/10/18/ollama-hugging-face-gguf-models/

(można też ręcznie dodać pliki GGUF)

warto zmienić w Zmiennych środowiskowych katalog zapisu modeli na inny dysk niż C. Jako zmienną podaje się OLLAMA_MODELS potem katalog jako Wartość zmiennej np. K:\ollama\models

https://lmstudio.ai/

https://github.com/lobehub/lobe-chat

w Zmiennych środowiskowych trzeba ustawić dla Ollamy zmienną OLLAMA_ORIGINS jako Wartość zmiennej * (inaczej nie zadziała)

https://chat-preview.lobehub.com/

https://github.com/n4ze3m/page-assist

https://www.youtube.com/watch?v=IvLTlDy9G8c

https://jan.ai/

https://www.youtube.com/watch?v=gmCrnvOX5WM

https://msty.app/

https://github.com/Mintplex-Labs/anything-llm

https://localai.io/

https://huggingface.co/spaces/ggml-org/gguf-my-repo

BoTak

Hehehe pobawię się we wróża. Już niedługo Microsoft zaora wszystkie windowsy oprócz tych przeznaczonych dla firm i wyda nowy system bazujący na obowiązkowej płatnej miesięcznej subskrypcji, który jako jądro będzie miał chata gpt 4o i nowsze. Jak ktoś nie wie o co biega to niech sobie obejrzy ten film "Her" z 2013 roku https://www.imdb.com/title/tt1798709/. Kto by pomyślał, że to nastąpi tak szybko.

Zaloguj się aby komentować