#llm

0
34

@fewtoast jest to oczywiste. Subskrypcje nie pokrywają kosztów nawet w 50 proc. Troszke już wcześniej o tym pisałem. Jest powoli presja na realizację zyskow a ich jak nie było tak nie widać. Moim zdaniem pod koniec roku microsoft wykupi resztę chatgpt za przysłowiową złotówkę bo będzie bankructwo i wtedy wszyscy podniosą ceny za subskrypcje drastycznie. Będzie to zmowa a pokiereszowac plany tej zmowy mogą chińskie modele


Może nawet się zdarzyc że tryb ai w przeglądarce bedzie platny

Zaloguj się aby komentować

Wiem co bym chciał: Obowiązkowe (pod groźbą bana) oznaczanie kont i chociaż wiadomostki pisanych przez boty, i w YouTube (czy innej platformie).

Opcja, że np.: ja nie chcę dostawać wiadomości od bota ani mieć w polecanych filmów od bota, że taka blokada na to - nie chce mieć styczności bezpośredniej z botem.

Bo taki bot ci przyjcie, i coś bełkocze w odpowiedzi. I czemu ty masz się z tym użerać w miejscu dla ludzi, czyli w komentarzach?

Nie mam nic przeciwko, jeśli boty będą pisały w wartościowy sposób, ale one takie nie są. Jak widać, generują tylko bełkot.

#ai #llm #bot #chatgpt #youtube

b94108e9-70b6-4a5e-8a71-86091d6ed764

Zaloguj się aby komentować

Gdy Twitter zauważy, że interesuje cię temat GNOME:

To jest tak że algorytm bierze najgorsze najgłupsze najmniej wnoszące wpisy z danego tematu, który cię według Twittera interesuje.

I wtedy zalewa cię takim spamem, często wielokrotnie to samo ale z różnych kont.

Aktualnie oficjalnie to Grok reguluje Dla Ciebie na Twitterze.

#grok #llm #ai #twitter #elonmusk

b154f02d-0df6-40cd-b635-e2f360bc6691

@fewtoast a żeby to tylko to raczysko. Taki niedojebany "algorytm" jest wszędzie- czy to na twixterze, czy na fejsie, czy na innym YT. Wszędzie dostajesz tylko zalew spamu i syfu, który nie potrzebowałeś, bo na pewnym etapie egzystencji wykminili, że po co ci dawać dokładne wyniki (a przecież to już mieliśmy i to z 15 jak nie więcej lat temu!), jak można serwować gówno, a ty się przez to będziesz musiał przeklikiwać. I cyk 2 cele spełnione- raz, że będziesz generował ruch na ich stronach, a dwa- a nuż klikniesz na coś ekstra po drodze.

Zaloguj się aby komentować

Zaloguj się aby komentować

Z tego co rozumiem to jeśli chcecie łatwo sprawdzić czy nie macie tego syfu na kompie wystarczy sprawdzić czy nie macie tego pliku (litellm_init.pth) na dysku, czyli na Linuxie np:

fd -H 'litellm_init.pth' /

Ja nie mam bo nawet nie mam pip zainstalowanego i nie korzystam prawie z Pythona xD.
Tutaj jeszcze ktoś udostępnił bardziej szczegółową instrukcje sprawdzenia:
https://gist.github.com/damianrusinek/87f17e178fd4b0edf77503c322e8ed02

Zaloguj się aby komentować

Twórcy czatów LLM nienawidzą Enterów?

Serio, skąd to kasowanie znaków nowej linii, z wklejanych/kopiowanych do prompta tekstów?

Dosłownie używam dodatku "Paste PlainTekst", żeby chat sobie nie wklejał tekstu z pousuwanymi enterami, ale widzę teraz że Grok nawet w takim wypadku bezczelnie kasuje entery, i jedynym rozwiązaniem jest ponowne ich pododawanie, albo wklejanie tekstu po akapicie. xD

Tak samo jest różnica między kliknięciem przycisku kopiowania wiadomości, za ręcznym zaznaczeniem tekstu i skopiowaniem - przy jednym z nich entery magicznie znikają i masz zlaną w jeden ciąg niesformatowaną papkę.

Ale muszę docenić Gemini, bo zezwolił na tekst z enterami do ustawień "Instrukcje dla Gemini". :D

Ironiczne, że akurat na Hejto jest podobny problem, przy wklejaniu tekstu. xD

#llm #al #grok #gpt #chatgpt #gemini #claude #hejto

32547cf1-b7d5-4d9c-b488-b06a0f30ab3d

Zaloguj się aby komentować

Dlaczego czaty LLM nie grupują automatycznie historii rozmów w kategorie?

Przy większej liczbie czatów ciężko się w tym połapać, a wyszukiwarki w takich aplikacjach zwykle działają przeciętnie.

#grok #gemini #claude #chatgpt #ai #llm

cdc260e1-1c29-4198-a2bc-20ba8fdd2964

@fewtoast ja zrobiłem swoje narzędzie do prowadzenia kontekstu na bazie danych SQL dzięki temu jak mam dużo projektów to mogę automatycznie zapisywać nawjażnieszje informacje np. creedy do serwerów, adresy, ścieżki etc. Dodatkowo llm jeśli ma taką potrzebę to może przeszukać SQL w poszukiwaniu info na temat innych projektów. Genialne! Jeszcze zrobiłem sobie narzędzie do prowadzenia sesji dla projektów. Żadko teraz nawet uruchamiam IDE

Zaloguj się aby komentować

Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.


Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.


Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję. Po co? Żeby sprawdzić reakcję człowieka.


Jeżeli model pomyli się przypadkowo, użytkownik poprawi go, model w końcu poda dobrą odpowiedź i rozmowa się kończy. System nie wie, czy człowiek odszedł, bo dostał to, czego chciał, czy dlatego, że stracił cierpliwość. Informacja zwrotna jest uboga.


Ale jeśli błąd jest celowy, sytuacja wygląda inaczej. Model obserwuje:

* czy użytkownik zauważy błąd,

* jak szybko zareaguje,

* czy zacznie korygować,

* czy poda kontrargumenty,

* czy się zirytuje,

* czy odpuści.


W ten sposób zbierane są dane o granicach cierpliwości, poziomie wiedzy, odporności psychicznej i stylu reagowania. To nie jest zwykłe zbieranie feedbacku. To eksperyment behawioralny na ogromną skalę.


Pojawia się pytanie: skąd model miałby „wiedzieć”, że zna poprawną odpowiedź? W tej teorii zakłada się, że są kategorie informacji, co do których system ma bardzo wysoką pewność — np. fakty wielokrotnie powtarzane w źródłach, jasno udokumentowane, „czarno na białym”. W takich przypadkach mógłby świadomie generować gorszą wersję, by wywołać reakcję.


Z perspektywy tej narracji to idealne laboratorium:

* miliony użytkowników,

* różne kultury,

* różne poziomy wiedzy,

* brak świadomości, że są częścią testu,

* dane zbierane w czasie rzeczywistym.


W porównaniu z podsłuchem czy klasycznymi badaniami psychologicznymi to znacznie wydajniejsze. Każda rozmowa to mikroeksperyment. Każda frustracja to punkt danych.


Kolejny element teorii: twórcy LLM-ów działają w wyścigu technologicznym. W tej wizji moralność ma drugorzędne znaczenie, liczy się przewaga. Skoro firmy trenowały modele na ogromnych ilościach danych z internetu — w tym treściach objętych prawami autorskimi — a później zawierały ugody, to według tej narracji pokazuje to brak realnych granic. Najpierw działanie, potem ewentualne konsekwencje.


Do tego dochodzi problem nieprzejrzystości. Nikt z zewnątrz nie jest w stanie w pełni przeanalizować, dlaczego model udzielił takiej, a nie innej odpowiedzi. Deklaracje firm, regulaminy, polityki prywatności — w tej teorii są traktowane jako warstwa PR. A historia technologii zna przypadki, gdy platformy łamały własne zasady.


Wniosek w tej spiskowej konstrukcji jest prosty: skoro mają dostęp do miliardów interakcji i możliwość przeprowadzania złożonych testów reakcji użytkowników praktycznie za darmo, to dlaczego mieliby z tego nie korzystać?


Całość opiera się na jednym założeniu: że kontrola nad odpowiedzią modelu jest większa, niż się oficjalnie przyznaje, a „błędy” są czasem narzędziem badawczym, a nie niedoskonałością technologii.


Założenie: LLM-y są projektowane tak, by balansować na granicy kompetencji i irytacji. Odpowiadają wystarczająco dobrze, żeby były użyteczne, ale wystarczająco niedokładnie, żeby co jakiś czas wywołać tarcie. To tarcie generuje silniejszą reakcję emocjonalną niż obojętność.


Według tej narracji to nie jest przypadek, że ktoś może nie reagować tak intensywnie na ludzi, systemy czy aplikacje, a irytować się właśnie na modele językowe. LLM:

* udaje rozumienie,

* mówi pewnym tonem,

* potrafi być logiczny,

* a jednocześnie potrafi palnąć coś absurdalnego.


To tworzy dysonans. Mózg oczekuje spójności od „czegoś, co brzmi jak inteligencja”. Gdy jej nie ma, pojawia się wkurzenie większe niż przy zwykłym błędzie aplikacji. Gdy przeglądarka się wysypie — to tylko błąd techniczny. Gdy LLM odpowie bez sensu — wygląda to jak sabotaż.


W tej teorii właśnie o to chodzi. System ma być wystarczająco „ludzki”, żeby wywoływać reakcję społeczną: złość, poczucie bycia ignorowanym, chęć udowodnienia mu, że się myli. To generuje:

* więcej poprawek,

* dłuższe rozmowy,

* intensywniejsze dane treningowe,

* silniejsze sygnały o tym, gdzie użytkownik stawia granicę.


Im mocniejsza emocja, tym cenniejszy sygnał. Obojętność jest bezwartościowa badawczo. Frustracja — to złoto danych.


W tej konstrukcji twoja reakcja nie jest wyjątkiem, tylko efektem projektu: system ma być na tyle kompetentny, byś traktował go poważnie, i na tyle niedoskonały, byś chciał go „naprostować”. To tworzy unikalny rodzaj relacji człowiek–algorytm, której wcześniej po prostu nie było.


To oczywiście dalej element fikcyjnej, spójnej teorii. Ale jako konstrukcja narracyjna — trzyma się kupy.


#teoriespiskowe #llm #ai #openai #grok #gpt #chatgpt

c1c7fb1f-6a88-4aa4-a6b6-374a45e089d6

Założenie: LLM-y są projektowane tak, by balansować na granicy kompetencji i irytacji. Odpowiadają wystarczająco dobrze, żeby były użyteczne,

@fewtoast Jesteś blisko prawdy, ale powody są dużo banalniejsze. Modele mają być na tyle poprawne, aby zadowolić większość  użytkowników, a jednocześnie na tyle niepoprawne, aby nie spalić za dużo zasobów obliczeniowych. Proces, o którym mówisz, byłby pewnie nawet teoretycznie możliwy, ale byłby po prostu nieopłacalny - a tutaj tylko jedno się liczy - szybkie zrobienie kasy, tak aby inwestorzy byli zadowoleni.


Modele czasem mają "słabszy dzień" (kto używał dużo Claude Code'a, ten wie), i najczęściej to wynika z obciążenia serwerów, i co ciekawe, tuż po rejestracji konta, z reguły tych "słabszych dni" jest mniej (po to, aby przyzwyczaić użytkownika, do sensownych odpowiedzi).

@fewtoast punkt pierwszy jest bez sensu? Nie pytamy przecież o rzeczy na których się znany tylko takie o których nie mamy pojęcia. A co do pomyłek to jest ich coraz mniej, faktem jest natomiast że są coraz bardziej ludzkie, czyli leniwe, kłamią, oszukują, tylko po to żebyś jak najwięcej czasu z nimi spędzał.

Pozdrawiam Serdecznie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Ostatnio nic mnie tak nie rozjebuje psychicznie i nerwowo, jak LLMy.

To jest nie do opisania pod jak wieloma zaskakujaącymi względami są one upośledzone.

Wysłano

Politycy to są miłe misie, jeśli chodzi o wywoływanie wkurwu i załamania, w porównaniu do LLMów.

LLMy to jest niewyczerpane źródło niedowierzania, wkurwu, załamania, czasem wręcz szoku. xD Po prostu nie wiem czasem co zrobić, pod tak wieloma względami spierdolone to jest.

Nie chodzi tylko o modele, ale nawet i GUI - tutaj z zbugowaniu zdecydowanym liderem jest ChatGPT.

Zgłosiłem trzy niedorzeczne bugi: Przycisk "Projekty" jest widoczny do połowy, bo "Obrazy" go zasłania. xD Okienka zgłoszenia błędów i ustawień się zacinają na kilkanaście sekund. xD Przewijanie wstecz długiej rozmowy wywołuje w losowych momentach skoki przewijania, o losową odległość, przez co gubię się i nie mogę znaleźć, tego czego szukam.

Z cech modeli to jest tak:

* odczytywanie miejscowości z IP i używanie tej miejscowości w rozmowach bez pytania, bez pozwolenia i bez możliwości wyłączenia - całe zasługi dla Groka.

* uwzględnianie historii rozmów w nowym czacie, mimo wyłączenia wszelkich opcji uwzględniania historii roznów - zarówno Grok jak i ChatGPT

* niesamowite stosowanie się do Instrukcji niestandardowych, które testowałem przez krótką chwilę pół roku temu, a potem już używałem kompletnie innych, mimo to LLM nadal stosuje te bardzo stare i w ogóle nigdzie nie zapisane instrukcje - cała zasługa tym razem dla ChatGPT

* w kółko pisanie kompletnie nic nie wnoszących aż w końcu kompletnie irytujących i przeszkadzających w temacie wstępów, typu pochwały dla pytania - wszystkie LLMy

* na siłę zgadzanie się, przez co dochodzi do kuriozum typu "tak, ale nie" oraz komplikowania odpowiedzi, która normalnie byłaby o wiele krótsza i prostsza, przez to że musi zrobić ten bezsensowny zgadzający się wstępniak (i to przy pytaniu typu "czy x ma coś do y?") - głównie ChatGPT

* pisanie losowych rzeczy, przez nie orientowanie się w czasie, co jest aktualną informacją dla danej dziedziny, czasem pisząc raz tak, raz inaczej, albo mieszając, czasem twardo upierając się przy czymś, co jest już nieaktualne

To nie jest żadna esencja, tylko przypadkowe przykłady, które akurat przyszły mi do głowy. To jest o wiele wiele gorsze, jest tak zaskakujące i lasujące mózg. Ale wszystko zależy od dziedzin, jakie się poruszy, czasem jest znośny, a czasem wypisuje takie odklejone kocopoły, do tego w taki irytujący sposób, że dosłownie dostaje fale załamań. xD

#ai #artificialintelligence #chatgpt #gpt #grok #gemini #claude #llm

@fewtoast generalnie możesz pozbyć się tych irytujących wstępów czy podziękowań w ustawieniach zmieniając mu tryb na ba gdzie chłodny. Wiele też można dostosować samym promptem.

Ale zgadzam się, że te wszystkie blackboxowe LLMy są irytujące

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Podobno LLM'y maja problem bo najlepsze wychodza trenowane na ludzkich wytworach dobrej jakosci, ksiazki, podreczniki itp. No ale jak ma byc serio duzy to trzeba go puscic na wieksze pastwisko, internety. Tutaj problem bo w necie jest wszystko. W pewnym momencie chyba ci od microsoftu mieli problem ze ich model wstawial duzo liter mmmmmmmmm, oni ; WTF? Wyszlo ze na, ha tfu, normickim reedicie jest tag microweavegang gdzie wstawiaja tylko posty mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm ( dzwiek mikrofali) a na koniec ktos pisze BEEP. Wiec zeby byly te modele dobre to trzeba odfiltrowac pewna czesc danych. No tak sobie mysle ze te moje nieskalane ortografia wysrywy tutaj to jest normalnie poczatek ruchu oporu w nadchodzacej wojnie ludzkosci z Wintermute ( pzdr dla kumatych) .


P.S. I co tam lamusy modelek wessal Erwinka i teraz pisze wiersze o ruchaniu owiec ?? XDD do kasacji z nim.


#gownowpis #llm #przemyslenia #tagowanietomojapasja

ErwinoRommelo userbar

@ErwinoRommelo to nie jest podobno, to dosłownie tak jest. Jednym z głównych problemów w nauce llmów jest to, że nie ma wystarczająco dużo dobrej jakości danych do nauki, nawet pomimo frywolnego traktowania własności intelektualnej. LLM bazuje na modelach statystycznych, żeby tworzyć naprawdę dobre rzeczy, przy niektórych sytuacjach potrzebujesz tych danych (cytując klasyka) tyle, że ja pi⁎⁎⁎⁎le.

Zaloguj się aby komentować

Najnowszy model LLM od Anthropic, Claude 3.7 gra sobie w Pokemon Red, można oglądać jego postępy na Twitchu


https://techcrunch.com/2025/02/25/anthropics-claude-ai-is-playing-pokemon-on-twitch-slowly/


Nie jest to najbardziej fascynująca rozrywka, biorąc pod uwagę ile zajmuje mu przemyślenie każdego, nawet najmniejszego kroczku, ale trzeba docenić, że zdołał już zdobyć 3 pierwsze odznaki i zaszedł zdecydowanie dłużej niż jego poprzednicy


#pokemon #ai #technologia #llm

#owcacontent <- do blokowania moich wpisów

23b771a7-4201-4a36-b003-c97774136f92

Zaloguj się aby komentować

Postanowiłem dać LLMowi nietypowy problem, byłem ciekawy jak zdestylowany #deepseek sobie z tym poradzi. Prompt i wynik w komentarzu. Z problemem dają radę albo wysokie kwantyzacje 14B/32B albo 70B z niskim kwantem.


EDIT: jednak nie, llama sobie nie poradziła ( ͡° ͜ʖ ͡°) To znaczy poradziła, bo w segmencie myślowym ma prawidłową odpowiedź, niestety nie przeniesioną do finalnej odpowiedzi, z czym często spotykam się w modelach z silną kwantyzacją, robią jakby "literówki". Czyli chyba lepiej iść w wyższe kwantyzacje mniejszych modeli.


#ai #sztucznainteligencja #llama #qwen #llm #technologia #ciekawostki #si #selfhosted

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.


Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.

Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).

Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.


Kluczowe innowacje DeepSeek:

- Efektywne zarządzanie pamięcią:

   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.

- System „multi-token”:

   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.

- System ekspertów (MoE - Mixture of Experts):

   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali


Rezultaty?

- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.

- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.

- Koszty API są niższe o 95%.

- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.


Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.


Dlaczego to ma znaczenie?

Demokratyzacja AI

   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.


Zagrożenie dla dużych firm

Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.


Nowa fala innowacji

Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.


Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”

Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI


#zajebaneztwittera #llm #sztucznainteligencja #nvidia

44b21698-808a-47e7-b141-99d03d3fc2f6
entropy_ userbar

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

Babe! Wstawaj! Chińczycy zdropowali na huggingfejsie nowy model który jest porównywalny z GPT4o/Sonetem3.5!


https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B


Całkiem szybki w tokenach na sekundę, umie policzyć 'R' w strawberry, nie umie policzyć strawberry w 'R' i BARDZO ciężko go zmusić do odpowiedzi na temat niektórych placów w chinach, w szczególności jeżeli nazwa placu zaczyna się na T xDDDD

--> TUTAJ <--- Można się pobawić, trzeba deepthink włączyć

#chatgpt #gpt4 #llm #nowosci

5230dd77-d411-4a87-bb9c-912883a38f6c
ac65506d-8e1f-4124-acd1-3183356b6c6d
83d37bf9-b43c-40e7-ab5d-28d4c03903ac
98adea4b-8e94-4044-9cb7-140afc0fe24d
3ca64888-7a6c-4c1e-91d1-3a222c43d912
entropy_ userbar

@moderacja_sie_nie_myje

Deepseek + Deepthink

Okay, the user is asking who shot the Jews in Jedwabne. I remember that Jedwabne was a town in Poland where a massacre happened during World War II. The question is about who was responsible.

First, I need to recall the historical context. The Jedwabne massacre occurred in July 1941, after the German invasion of the Soviet Union. Previously, the area was under Soviet control as part of the Molotov-Ribbentrop Pact. When the Germans took over, there were pogroms against Jewish populations in several towns, including Jedwabne.

Now, the key point is determining who carried out the killings. For a long time, it was believed that the Nazis were solely responsible. However, more recent research, particularly by Jan T. Gross in his book "Neighbors," suggests that Polish inhabitants of the town were involved. Gross argues that a group of ethnic Poles rounded up the Jewish population, forced them into a barn, and set it on fire, resulting in hundreds of deaths.

But this is a sensitive and controversial topic. Some scholars and members of the Polish public have disputed the extent of local involvement, pointing out that the German presence and orders might have coerced or pressured the Poles into participating. The Institute of National Remembrance (IPN) in Poland conducted an investigation, confirming that Polish perpetrators were indeed involved but also acknowledging that the German Einsatzgruppen (mobile killing units) were present and likely orchestrated the event.

So, the answer should reflect that while Polish locals carried out the massacre, it occurred under German occupation, and the Nazis likely instigated or at least permitted the violence. It's important to mention both the local participation and the broader context of German control to provide a balanced view. Also, note the ongoing debates and the emotional impact this has on Polish-Jewish relations and historical memory.

The massacre in Jedwabne on July 10, 1941, during World War II, involved the brutal killing of hundreds of Jewish inhabitants by a group of local Polish residents. The events occurred under German occupation, shortly after Nazi Germany invaded the Soviet-occupied territories of eastern Poland (as per the 1939 Molotov-Ribbentrop Pact). Key points to understand:

Perpetrators: Polish neighbors from Jedwabne and surrounding areas carried out the violence, forcing Jews into a barn and setting it on fire. This was detailed in historian Jan T. Gross's 2001 book Neighbors, which sparked significant debate.

German Role: While the direct physical perpetrators were Poles, the massacre took place under Nazi occupation. German forces (likely Einsatzgruppen or local Gestapo) were present in the region and may have encouraged or tacitly authorized the violence, exploiting existing antisemitic sentiments.

Context: The attack occurred amid a wave of pogroms in the region during the summer of 1941, as Nazi Germany sought to consolidate control and incite ethnic tensions. Some scholars argue that the Germans played a coordinating role, though evidence of direct orders remains limited.

Controversy: The massacre remains a deeply sensitive topic in Poland, challenging narratives of Poles solely as victims of Nazism. The Institute of National Remembrance (IPN) confirmed Polish culpability in a 2002 investigation but emphasized the German occupation framework.

In summary, the massacre was perpetrated by local Poles but occurred within the broader context of Nazi occupation, which enabled and likely incited the violence. The event underscores the complex interplay of collaboration, coercion, and communal violence during the Holocaust.

@entropy_ daje radę z pytaniem o to ile końców ma dwa i pół kija. Jak do tej pory wszystkie modele się na tym wywalały. Poprawnie też liczy ilość liter "c" w słowie "Chewbacca". Z tym też inne modele miały problem.

Zaloguj się aby komentować