Sam Altman: kto pociąga za sznurki w świecie sztucznej inteligencji?

Ilustracja przedstawiająca symboliczną sieć wpływów wokół lidera firmy AI, z motywami chmury, kapitału, prawa i technologii.

Sam Altman wygląda jak człowiek, który siedzi przy pulpicie sterowniczym przyszłości. Jest twarzą OpenAI, rozmawia z politykami, inwestorami i mediami, a ChatGPT — produkt jego firmy — stał się jednym z symboli technologicznego przełomu.

Ale historia Altmana nie jest prostą opowieścią o genialnym założycielu, który wymyślił przyszłość. To raczej historia o tym, jak władza nad sztuczną inteligencją rozkłada się między zarządy, fundacje, inwestorów, dostawców chmury, regulatorów, sądy i opinię publiczną.

Najlepiej pokazał to listopad 2023 r. Altman został nagle zwolniony z OpenAI, po czym wrócił po kilku dniach silniejszy niż wcześniej. Ten kryzys odsłonił mechanikę świata AI: misja brzmi idealistycznie, ale do jej realizacji potrzebne są miliardy, energia, chipy, centra danych i polityczne przyzwolenie.

Najkrócej

  • Sam Altman jest szefem OpenAI i najważniejszą medialną twarzą boomu na generatywną sztuczną inteligencję.
  • OpenAI zaczynało w 2015 r. jako organizacja non profit z misją budowy AGI „dla dobra całej ludzkości”.
  • W 2019 r. powstała struktura komercyjna, bo rozwój modeli AI wymagał ogromnego kapitału i infrastruktury.
  • W listopadzie 2023 r. rada OpenAI nagle zwolniła Altmana, zarzucając mu brak konsekwentnej szczerości w komunikacji z radą; po kilku dniach wrócił na stanowisko.
  • Niezależny przegląd zlecony przez OpenAI wskazał później na rozpad zaufania między poprzednią radą a Altmanem, a nowa rada wyraziła pełne zaufanie do jego przywództwa.
  • Microsoft stał się kluczowym partnerem OpenAI, bo zapewniał kapitał i infrastrukturę chmurową; po restrukturyzacji z 2025 r. jego inwestycja w OpenAI Group PBC została wyceniona na ok. 135 mld dolarów.
  • Nie ma jednego „człowieka, który pociąga za sznurki”. Altman ma ogromny wpływ, ale działa w układzie zależności: kapitał, chmura, rada, prawo, polityka i społeczny lęk przed AI.

Kim jest Sam Altman, zanim stał się twarzą ChatGPT

Sam Altman nie jest naukowcem w klasycznym sensie. Nie zbudował samodzielnie modelu językowego, nie jest autorem jednego przełomowego algorytmu, którego nazwę zna dziś cała branża. Jego rola jest inna: to człowiek od kierunku, kapitału, talentów i opowieści.

A w świecie sztucznej inteligencji opowieść ma znaczenie prawie tak duże jak technologia. Trzeba przekonać inwestorów, że warto wydać miliardy. Trzeba przekonać inżynierów, że pracują nad czymś większym niż kolejna aplikacja. Trzeba przekonać polityków, że firma rozumie wagę ryzyka. I trzeba przekonać użytkowników, że mogą powierzyć narzędziu część swojej pracy, wiedzy, twórczości i codzienności.

Altman przez lata uczył się właśnie tego języka Doliny Krzemowej. Najpierw był przedsiębiorcą, potem inwestorem i szefem Y Combinator — jednej z najważniejszych kuźni startupów na świecie. To tam funkcjonuje specyficzne przekonanie, że mały zespół, dobra technologia i odpowiednio duża ambicja mogą przebudować całe sektory gospodarki.

OpenAI przeniosło ten sposób myślenia na poziom znacznie poważniejszy. Tu nie chodziło już o aplikację do zamawiania jedzenia albo narzędzie dla firm. Stawką miała być sztuczna inteligencja ogólna, czyli AGI — systemy zdolne wykonywać większość ekonomicznie wartościowej pracy lepiej niż ludzie. Tak OpenAI definiuje AGI w swoim statucie: jako „wysoce autonomiczne systemy”, które przewyższają człowieka w większości ekonomicznie użytecznych zadań. Misja firmy brzmi: sprawić, by taka technologia przyniosła korzyść całej ludzkości.

To zdanie powtarza się w dokumentach OpenAI od lat. Jest proste, prawie moralne. Ale im większe stawało się OpenAI, tym mocniej widać było napięcie: jak budować technologię „dla wszystkich”, jeśli jej rozwój wymaga prywatnych miliardów, zamkniętej infrastruktury, przewagi nad konkurencją i ścisłych umów z jedną z największych korporacji świata?

Tu zaczyna się prawdziwa historia Altmana. Nie jako samotnego wizjonera. Raczej jako człowieka, który próbuje spiąć trzy porządki: idealistyczną misję, brutalną ekonomię obliczeń i politykę zaufania.

OpenAI: misja dla ludzkości, struktura dla inwestorów

OpenAI powstało w 2015 r. jako organizacja non profit. W świecie technologii brzmiało to nietypowo, ale sens był czytelny: jeśli sztuczna inteligencja ogólna ma być naprawdę przełomowa, nie powinna zostać zamknięta wyłącznie w logice maksymalizacji zysku.

Problem polegał na tym, że rozwój najpotężniejszych modeli AI okazał się potwornie drogi. Potrzebne były najlepsze zespoły badawcze, ogromna moc obliczeniowa, centra danych, energia, chipy i infrastruktura, której nie da się utrzymać z samego idealizmu. Dlatego w 2019 r. OpenAI utworzyło komercyjną część organizacji. Firma tłumaczyła później, że miało to pomóc skalować badania i wdrażanie technologii, przy zachowaniu kontroli przez strukturę non profit.

To był moment założycielskiego kompromisu. OpenAI chciało mówić językiem dobra publicznego, ale jednocześnie potrzebowało mechanizmu, który pozwala przyciągnąć kapitał i wynagradzać ludzi w sposób konkurencyjny wobec największych firm technologicznych. W praktyce oznaczało to hybrydę: misję non profit połączoną z komercyjną maszyną do budowy produktów.

W 2025 r. struktura znów została zmieniona. OpenAI informowało, że organizacja non profit stała się OpenAI Foundation, a część komercyjna — OpenAI Group PBC, czyli public benefit corporation. Według OpenAI fundacja nadal kontroluje grupę, a obie części mają tę samą misję. Firma podkreślała też, że przebudowa nastąpiła po prawie roku rozmów z prokuratorami generalnymi Kalifornii i Delaware, którzy mają znaczenie przy nadzorze nad takimi strukturami.

Dla zwykłego czytelnika to może brzmieć jak korporacyjny labirynt. Ale właśnie w tym labiryncie kryje się odpowiedź na pytanie, kto pociąga za sznurki. W OpenAI formalna kontrola, ekonomiczny wpływ i codzienne zarządzanie nie są tym samym.

Formalnie ważna jest fundacja i rada. Operacyjnie kluczowy jest zarząd z Altmanem na czele. Finansowo i infrastrukturalnie ogromne znaczenie mają partnerzy oraz inwestorzy. A politycznie — regulatorzy, sądy i państwa, które coraz wyraźniej rozumieją, że AI nie jest tylko produktem. To infrastruktura władzy.

Listopad 2023: pięć dni, które odsłoniły prawdziwą władzę

Najbardziej filmowy moment w historii Altmana wydarzył się 17 listopada 2023 r. Tego dnia rada OpenAI ogłosiła, że Sam Altman odchodzi z funkcji CEO i opuszcza radę dyrektorów. Oficjalny komunikat był krótki, ale bardzo mocny: rada stwierdziła, że Altman nie był „konsekwentnie szczery” w komunikacji z radą, co miało utrudniać jej wykonywanie obowiązków. Rada napisała też, że nie ma już zaufania do jego dalszego kierowania OpenAI.

To był fakt. Wszystko poza tym wymaga ostrożności.

Media, w tym The Verge, odtworzyły później szczegółową chronologię chaosu: Altman został usunięty, CTO Mira Murati została tymczasową CEO, potem pojawił się Emmett Shear, były szef Twitcha, a pracownicy OpenAI masowo naciskali na przywrócenie Altmana. The Verge opisywał, że w mniej niż tydzień OpenAI miało trzech CEO i ostatecznie wróciło do punktu wyjścia: Altman znów został szefem, Greg Brockman wrócił, a rada została przebudowana.

To, co wyglądało jak wewnętrzny kryzys personalny, bardzo szybko stało się testem realnej władzy. Gdyby rada OpenAI miała pełną i niepodważalną kontrolę, jej decyzja mogłaby zakończyć sprawę. Ale tak się nie stało.

Pracownicy pokazali, że bez nich OpenAI jest tylko marką i strukturą prawną. Microsoft pokazał, że jest gotów przyjąć Altmana i jego ludzi, co w praktyce groziło wypatroszeniem OpenAI z najważniejszego kapitału: zespołu. Inwestorzy i partnerzy pokazali, że stabilność firmy jest dla nich ważniejsza niż abstrakcyjna zasada rady. A opinia publiczna zobaczyła, że organizacja powołana do bezpiecznego zarządzania technologią przyszłości sama ma problem z zarządzaniem własnym kryzysem.

29 listopada 2023 r. OpenAI ogłosiło, że Altman wraca jako CEO. Mira Murati wróciła do roli CTO, Greg Brockman do roli prezesa, a nowa początkowa rada miała składać się z Breta Taylora jako przewodniczącego, Larry’ego Summersa i Adama D’Angelo.

Późniejszy przegląd przeprowadzony przez kancelarię WilmerHale, zlecony przez specjalny komitet rady OpenAI, nie dał publicznej odpowiedzi w stylu: „oto jedno zdarzenie, które wszystko wyjaśnia”. Według komunikatu OpenAI kancelaria przeprowadziła dziesiątki rozmów, przejrzała ponad 30 tys. dokumentów i oceniła działania korporacyjne. Wnioskiem było przede wszystkim to, że doszło do rozpadu zaufania między poprzednią radą a Altmanem. Nowa rada wyraziła pełne zaufanie do Altmana i Brockmana, a Altman wrócił również do rady dyrektorów.

To ważne rozróżnienie. Nie ma publicznie potwierdzonego dowodu, że Altman został zwolniony z powodu jednej konkretnej sprawy związanej np. z bezpieczeństwem produktu, finansami czy jakimś ujawnionym nadużyciem. Oficjalnie najpierw była mowa o braku konsekwentnej szczerości wobec rady. Później — o utracie zaufania. Szczegółowe interpretacje, co dokładnie miało się za tym kryć, pozostają częściowo oparte na relacjach medialnych, anonimowych źródłach i sporach uczestników.

A jednak polityczny efekt tego kryzysu był jasny: Altman wrócił silniejszy.

Microsoft, chmura i miliardy — niewidzialna infrastruktura wpływu

W opowieści o sztucznej inteligencji najłatwiej skupić się na modelach. GPT, Claude, Gemini, Llama — nazwy zmieniają się szybko, benchmarki jeszcze szybciej. Ale za każdym modelem stoi coś mniej efektownego: infrastruktura.

AI potrzebuje mocy obliczeniowej. Moc obliczeniowa potrzebuje chipów, centrów danych, energii, chłodzenia, sieci, kontraktów i gigantycznych pieniędzy. To dlatego Microsoft jest w tej historii tak ważny.

Microsoft i OpenAI związały się strategicznie już wcześniej, ale skala tej relacji rosła wraz z boomem na generatywną AI. Po restrukturyzacji OpenAI z 2025 r. Microsoft informował, że posiada inwestycję w OpenAI Group PBC wycenianą na około 135 mld dolarów, co odpowiadało mniej więcej 27 proc. udziału na zasadzie as-converted diluted basis, z uwzględnieniem wszystkich właścicieli — pracowników, inwestorów i OpenAI Foundation.

To nie znaczy, że Microsoft po prostu „rządzi OpenAI”. Taki skrót byłby zbyt prosty. Ale oznacza, że Microsoft jest jednym z najważniejszych elementów układu, bez którego trudno zrozumieć realną siłę OpenAI.

Dla Microsoftu OpenAI było sposobem na odzyskanie technologicznej ofensywy. Integracja modeli z produktami, chmurą Azure i narzędziami dla firm dawała przewagę w wyścigu, w którym Google, Amazon, Meta, Anthropic i inni nie zamierzali czekać. Dla OpenAI Microsoft był zaś nie tylko inwestorem, lecz także dostawcą infrastruktury. W praktyce: jednym z warunków skali.

To właśnie dlatego listopad 2023 r. był tak ciekawy. Gdy Altman został zwolniony, Microsoft nie był biernym obserwatorem. Był partnerem, którego interesy zostały bezpośrednio dotknięte. W świecie startupów można czasem wymienić CEO i iść dalej. W świecie firm budujących infrastrukturę dla przyszłej gospodarki wymiana CEO może zachwiać układami wartymi dziesiątki albo setki miliardów.

Tu pojawia się druga odpowiedź na pytanie o sznurki. Władza nad AI nie polega tylko na tym, kto podpisuje komunikat prasowy. Polega na tym, kto finansuje obliczenia, kto kontroluje kanały dystrybucji, kto ma dostęp do klientów korporacyjnych, kto może zapewnić centra danych i kto jest w stanie przetrwać kolejną rundę kosztów.

Altman jest twarzą i jednym z najważniejszych decydentów. Ale jego pozycja rośnie dlatego, że stoi na przecięciu tych sił: misji OpenAI, kapitału inwestorów, infrastruktury Microsoftu, potrzeb rynku i politycznego zainteresowania rządów.

Elon Musk kontra OpenAI: co jest faktem, a co zarzutem

Spór Elona Muska z OpenAI to osobny rozdział, ale nie da się go pominąć. Musk był jednym ze współzałożycieli OpenAI. Później odszedł z organizacji, a w kolejnych latach stał się jej ostrym krytykiem i konkurentem, m.in. poprzez własną firmę xAI.

Najważniejsze: część tego, co pojawia się w tym sporze, to nie ustalone fakty, lecz zarzuty stron.

Według relacji z procesu rozpoczętego 27 kwietnia 2026 r. w Oakland, Musk oskarża Altmana i OpenAI o zdradę pierwotnej umowy i misji organizacji non profit. Twierdzi, że OpenAI miało działać dla bezpieczeństwa i otwartego dostępu do sztucznej inteligencji, a potem — po zdobyciu technologii i kapitału — przesunęło się w stronę zysków, Microsoftu i struktury komercyjnej. The Guardian relacjonował, że Musk domaga się m.in. odszkodowania przekraczającego 134 mld dolarów, usunięcia Altmana i Brockmana oraz odwrócenia restrukturyzacji.

OpenAI stanowczo temu zaprzecza. Według firmy Musk wiedział, że struktura komercyjna będzie potrzebna, a jego pieniądze miały charakter darowizny, nie inwestycji dającej prawa właścicielskie. OpenAI twierdzi też, że działania Muska są motywowane m.in. rywalizacją i żalem po odejściu z organizacji. To stanowisko strony, nie neutralny fakt.

W tej sprawie są więc trzy warstwy.

Pierwsza to fakty historyczne: OpenAI powstało jako non profit, później stworzyło strukturę komercyjną, a Microsoft stał się kluczowym partnerem i inwestorem. To jest potwierdzone dokumentami i komunikatami.

Druga to interpretacja: czy była to konieczna ewolucja, bo AGI wymaga gigantycznych zasobów, czy odejście od pierwotnej obietnicy? Tu strony sporu odpowiadają inaczej.

Trzecia to zarzuty prawne: czy doszło do naruszenia zobowiązań, bezpodstawnego wzbogacenia albo naruszenia zaufania charytatywnego. Tego nie rozstrzyga publicystyka. To musi rozstrzygnąć sąd.

Dla historii Altmana ten proces ma znaczenie nie tylko prawne. On dotyka pytania, które wisi nad całym sektorem AI: czy firmy budujące najpotężniejsze modele mogą jednocześnie obiecywać działanie dla dobra ludzkości i funkcjonować w logice gigantycznego prywatnego rynku?

Altman odpowiada na to praktyką: tak, trzeba zbudować strukturę, która pozwoli zebrać kapitał i jednocześnie utrzymać misję. Krytycy odpowiadają: taka struktura zawsze będzie przesuwać się w stronę tych, którzy dają pieniądze i infrastrukturę.

Na razie żadna z tych odpowiedzi nie kończy debaty.

Czy Altman naprawdę kontroluje przyszłość AI?

Sam Altman jest potężny, ale nie wszechmocny.

Jego wpływ bierze się z kilku rzeczy naraz. Po pierwsze, stoi na czele firmy, która spopularyzowała generatywną AI na skalę globalną. ChatGPT sprawił, że sztuczna inteligencja przestała być tematem konferencji branżowych, a stała się narzędziem używanym przez studentów, prawników, programistów, nauczycieli, dziennikarzy, urzędników i firmy.

Po drugie, Altman umie rozmawiać z różnymi publicznościami. Inwestorom opowiada o skali rynku. Politykom — o potrzebie regulacji i bezpieczeństwa. Użytkownikom — o użyteczności. Branży — o wyścigu technologicznym. Ten sam człowiek potrafi ostrzegać przed ryzykiem AI i jednocześnie budować firmę, która musi rosnąć szybciej niż konkurenci.

Po trzecie, Altman stał się symbolem. A symbole mają własną siłę. Kiedy rada OpenAI próbowała go usunąć, nie usuwała tylko menedżera. Uderzała w twarz projektu. Reakcja pracowników, inwestorów i rynku pokazała, że Altman jest dla OpenAI czymś więcej niż formalnym CEO.

Ale właśnie ta historia pokazuje też ograniczenia jego władzy.

Gdyby Altman naprawdę sam pociągał za wszystkie sznurki, nie zostałby zwolniony. Gdyby rada naprawdę miała pełną kontrolę, nie musiałby wrócić. Gdyby Microsoft był jedynym decydentem, struktura OpenAI byłaby prostsza. Gdyby misja non profit była wystarczającym zabezpieczeniem, nie byłoby tylu sporów o komercjalizację. Gdyby rynek nie wymuszał skali, OpenAI mogłoby pozostać małym laboratorium badawczym.

Władza nad AI przypomina więc nie tron, ale układ napięć. Altman siedzi bardzo blisko środka tego układu, może bliżej niż ktokolwiek inny po stronie OpenAI. Ale sznurki trzyma wiele rąk.

Jedną ręką są inżynierowie i badacze. Bez nich nie ma modeli.

Drugą — kapitał. Bez niego nie ma treningu, infrastruktury ani ekspansji.

Trzecią — chmura i chipy. Bez nich najbardziej ambitna mapa drogowa zostaje prezentacją.

Czwartą — prawo. Pozwy, regulatorzy i nadzór nad strukturą non profit mogą wpływać na kierunek firmy.

Piątą — użytkownicy. Jeśli przestaną ufać narzędziom AI, polityczne i rynkowe przyzwolenie osłabnie.

Szóstą — konkurenci. Anthropic, Google, Meta, xAI i inni nie tylko ścigają OpenAI technologicznie. Wymuszają tempo, decyzje produktowe, ceny i narracje o bezpieczeństwie.

Altman jest więc raczej dyrygentem w orkiestrze, która gra na ogromnej scenie, ale sala pali się od reflektorów, sponsorzy zaglądają przez ramię, a partytura dopisywana jest w czasie rzeczywistym.

Co w tej historii jest pewne, a czego nadal nie wiemy

Pewne jest to, że Sam Altman stał się jedną z najważniejszych osób współczesnej technologii. Nie dlatego, że samodzielnie stworzył AI, ale dlatego, że kieruje firmą, która zmieniła społeczne wyobrażenie o tym, czym AI może być.

Pewne jest też, że OpenAI nie jest już romantycznym laboratorium z 2015 r. To organizacja o globalnym wpływie, skomplikowanej strukturze, potężnych partnerach i kosztach, które wymuszają komercyjną logikę. Nawet jeśli misja pozostaje wpisana w dokumenty, codzienne decyzje zapadają w świecie konkurencji, przychodów, mocy obliczeniowej i presji rynku.

Pewne jest również, że zwolnienie Altmana w listopadzie 2023 r. nie zostało publicznie wyjaśnione do końca w sposób, który zadowoliłby wszystkich. Znamy oficjalny komunikat o braku konsekwentnej szczerości wobec rady. Znamy późniejszy wniosek o rozpadzie zaufania. Znamy fakt, że Altman wrócił, a nowa rada wyraziła wobec niego zaufanie. Nie znamy jednak pełnego materiału z przeglądu WilmerHale ani wszystkich rozmów, które doprowadziły do kryzysu.

Niepotwierdzone pozostają szczegółowe interpretacje motywów poszczególnych osób, jeśli opierają się wyłącznie na anonimowych relacjach lub stanowiskach jednej strony. Dotyczy to zarówno opowieści o rzekomych konfliktach wewnętrznych, jak i części narracji w sporze Muska z OpenAI. W tekście można je opisywać tylko jako zarzuty, opinie albo hipotezy.

Największe pytanie brzmi jednak szerzej: czy da się zbudować instytucję, która jednocześnie tworzy technologię o potencjalnie cywilizacyjnym znaczeniu, konkuruje na rynku wartym setki miliardów dolarów i pozostaje wierna misji „dla dobra całej ludzkości”?

Sam Altman mówi światu, że tak. Jego krytycy odpowiadają, że właśnie w tym tkwi problem: im większa władza, tym mniej powinniśmy zadowalać się deklaracją dobrych intencji.

I to jest najuczciwsza puenta tej historii. Sam Altman nie jest ani komiksowym złoczyńcą, ani samotnym zbawcą technologicznej przyszłości. Jest twarzą systemu, który dopiero uczymy się rozumieć. Systemu, w którym AI powstaje z ambicji, talentu, kapitału, infrastruktury, ryzyka i wiary, że ktoś zdoła utrzymać to wszystko pod kontrolą.

Na razie nie wiemy, czy ktoś naprawdę potrafi.

Źródła

  • OpenAI — „OpenAI announces leadership transition”
  • https://openai.com/index/openai-announces-leadership-transition/
  • OpenAI — „Sam Altman returns as CEO, OpenAI has a new initial board”
  • https://openai.com/index/sam-altman-returns-as-ceo-openai-has-a-new-initial-board/
  • OpenAI — „Review completed & Altman, Brockman to continue to lead OpenAI”
  • https://openai.com/index/review-completed-altman-brockman-to-continue-to-lead-openai/
  • OpenAI — „Our structure”
  • https://openai.com/our-structure/
  • OpenAI — „OpenAI Charter”
  • https://openai.com/charter/
  • Microsoft — „The next chapter of the Microsoft–OpenAI partnership”
  • https://blogs.microsoft.com/blog/2025/10/28/the-next-chapter-of-the-microsoft-openai-partnership/
  • The Verge — „Turmoil at OpenAI: what’s next for the creator of ChatGPT?”
  • https://www.theverge.com/23966325/openai-sam-altman-fired-board-microsoft-drama-timeline
  • WIRED — „What OpenAI Really Wants”
  • https://www.wired.com/story/what-openai-really-wants/
  • WIRED — „What Sam Altman’s Firing Means for the Future of OpenAI”
  • https://www.wired.com/story/sam-altman-firing-openai-future/
  • The Guardian — „Elon Musk and Sam Altman face off in court over OpenAI’s founding mission”
  • https://www.theguardian.com/technology/2026/apr/27/elon-musk-sam-altman-open-ai-lawsuit

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *