Agenci AI mają pracować za nas. Co naprawdę potrafią, a co jest jeszcze obietnicą?

Ilustracja przedstawiająca cyfrowego agenta AI pomagającego pracownikowi przy kalendarzu, dokumentach i zadaniach biurowych.

Agenci AI to jedno z najgłośniejszych haseł w świecie technologii. Mają nie tylko pisać odpowiedzi, ale też planować działania, korzystać z narzędzi, sprawdzać dane, obsługiwać systemy i wykonywać zadania w imieniu człowieka.

Brzmi jak osobisty asystent z przyszłości: umawia spotkania, porównuje oferty, odpowiada klientom, uzupełnia CRM, przygotowuje raport i jeszcze pamięta, co było tydzień temu. Tyle że między prezentacją na konferencji a stabilnym narzędziem w firmie jest długa droga.

Najważniejsze pytanie nie brzmi więc: „czy agenci AI zastąpią ludzi?”. Brzmi raczej: które zadania przejmą najpierw, gdzie nadal potrzebny będzie człowiek i jak nie oddać algorytmowi zbyt dużej władzy nad naszym kalendarzem, pocztą, danymi i pieniędzmi.

Najkrócej

  • Agent AI to system, który ma dostać cel i samodzielnie wykonać serię kroków: zaplanować, użyć narzędzi, sprawdzić wynik i wrócić z odpowiedzią.
  • Różni się od zwykłego chatbota tym, że nie kończy pracy na tekście. Może korzystać z wyszukiwarki, plików, API, kalendarza, CRM-u, przeglądarki albo innych aplikacji.
  • Największy potencjał widać dziś w obsłudze klienta, researchu, analizie dokumentów, kodowaniu, sprzedaży, administracji i pracy operacyjnej.
  • Nie ma potwierdzenia, że agenci AI w przewidywalnej przyszłości masowo zastąpią całe stanowiska asystenckie. Bardziej prawdopodobne jest przejmowanie pakietów zadań.
  • Firmy technologiczne mocno promują agentów, ale część zapowiedzi ma charakter marketingowy. Nawet Gartner prognozuje, że ponad 40 proc. projektów agentic AI może zostać anulowanych do końca 2027 roku z powodu kosztów, niedojrzałości albo braku jasnego zwrotu z inwestycji.
  • Największe ryzyka to błędy, halucynacje, zbyt szerokie uprawnienia, prompt injection, brak kontroli nad działaniami i trudność w mierzeniu realnej skuteczności.

Skąd wzięło się zamieszanie wokół agentów AI

Najpierw był zachwyt chatbotami. Człowiek wpisywał pytanie, sztuczna inteligencja odpowiadała, a internet przez chwilę wyglądał tak, jakby właśnie odkrył nowy rodzaj wyszukiwarki, edytora i korepetytora w jednym. Potem szybko przyszło rozczarowanie: chatbot potrafił pisać przekonująco, ale nie zawsze prawdziwie. Umiał pomóc, ale zwykle trzeba było prowadzić go za rękę. Mógł podsunąć plan podróży, ale nie kupował biletu. Mógł napisać maila, ale sam go nie wysyłał. Mógł doradzić, ale nie załatwiał sprawy.

Agenci AI są próbą przejścia do następnego etapu. Nie chodzi już tylko o generowanie tekstu, obrazów czy podsumowań. Chodzi o system, który dostaje zadanie i potrafi wykonać ciąg działań: sprawdzić dane, wybrać narzędzie, kliknąć w aplikacji, wywołać funkcję, porównać wynik, poprawić plan i dopiero wtedy wrócić do użytkownika. Google Cloud definiuje agentów AI jako systemy, które używają AI do realizowania celów i zadań w imieniu użytkownika, wykazując rozumowanie, planowanie, pamięć i pewien poziom autonomii.

To dlatego termin „agent” brzmi tak atrakcyjnie. Chatbot jest rozmówcą. Copilot jest pomocnikiem. Agent ma być kimś — albo raczej czymś — bliższym wykonawcy. Ma nie tylko powiedzieć: „możesz zrobić to i to”, ale faktycznie przejść przez część procesu. W dokumentacji OpenAI agent jest opisany jako duży model językowy skonfigurowany z instrukcjami, narzędziami i dodatkowymi zachowaniami, takimi jak przekazywanie spraw między agentami, zabezpieczenia czy uporządkowane wyniki.

To nie jest zupełnie nowy pomysł. W informatyce i badaniach nad sztuczną inteligencją o agentach mówi się od dekad. Nowość polega na tym, że duże modele językowe dały im naturalny interfejs: można napisać zwykłym językiem „znajdź najlepszy termin spotkania z trzema osobami, uwzględnij ich strefy czasowe i przygotuj krótką agendę”, a system próbuje zamienić to na konkretne kroki. McKinsey opisuje tę zmianę jako przejście od narzędzi, które głównie odpowiadają i generują treści, do systemów zdolnych wykonywać wieloetapowe procesy w cyfrowym świecie.

Właśnie tutaj zaczyna się zarówno obietnica, jak i przesada. Bo „agent AI” może oznaczać bardzo różne rzeczy: prostą automatyzację z modelem językowym na froncie, wyspecjalizowanego bota do obsługi klienta, narzędzie programistyczne, które samo proponuje zmiany w kodzie, albo eksperymentalny system, który korzysta z przeglądarki jak człowiek. Dlatego w tym temacie łatwo sprzedać starą automatyzację w nowym opakowaniu. I łatwo uwierzyć, że każdy agent jest już cyfrowym pracownikiem. Nie jest.

Czym agent AI różni się od chatbota

Najprostsza różnica jest taka: chatbot odpowiada, agent działa. Ale to zdanie bywa zbyt ładne, więc trzeba je rozbroić.

Zwykły chatbot, nawet bardzo dobry, działa zwykle w rytmie pytanie–odpowiedź. Użytkownik pyta, model generuje tekst. Agent ma pracować w pętli: zobaczyć problem, zaplanować kroki, użyć narzędzia, ocenić rezultat, zmodyfikować plan i dopiero wtedy podać wynik. IBM opisuje agenta jako system, który autonomicznie wykonuje zadania, projektując przepływy pracy przy użyciu dostępnych narzędzi; kluczowe jest tu wyjście poza sam język — w stronę decyzji, rozwiązywania problemów, interakcji z otoczeniem i wykonywania działań.

Wyobraźmy sobie prostą sytuację. Prosimy zwykłego chatbota: „Zaplanuj mi podróż służbową do Berlina”. Odpowie listą kroków, może zaproponuje hotel, lot, pociąg, plan dnia. Agent AI w wersji docelowej powinien sprawdzić kalendarz, znaleźć możliwe terminy, porównać połączenia, uwzględnić budżet firmy, zaproponować hotel zgodny z polityką podróży, zapisać szkic rezerwacji i poprosić człowieka o zatwierdzenie. Różnica nie leży więc w elegancji odpowiedzi, tylko w dostępie do narzędzi i możliwości wykonywania kolejnych czynności.

W praktyce agent składa się z kilku warstw. Jest model językowy, który interpretuje polecenie. Są instrukcje, czyli zasady: co wolno, czego nie wolno, jaki ma być styl pracy, kiedy pytać człowieka. Są narzędzia: wyszukiwarka, baza dokumentów, kalendarz, poczta, CRM, arkusz, wewnętrzny system firmy, terminal, przeglądarka albo funkcje API. Jest pamięć, przynajmniej w ograniczonej formie, dzięki której agent może zachować kontekst. I jest orkiestracja, czyli logika, która decyduje, kiedy agent ma wykonać kolejny krok, kiedy przerwać, a kiedy przekazać sprawę innemu agentowi.

W dokumentacji OpenAI narzędzia agentów obejmują między innymi wyszukiwanie w sieci, wyszukiwanie w plikach, interpreter kodu, integracje MCP, generowanie obrazów, wywoływanie funkcji oraz możliwość korzystania z komputera w środowisku przeglądarkowym. To ważny szczegół: agent staje się ciekawy dopiero wtedy, gdy może dotknąć świata poza oknem czatu.

Dlatego „agent AI” nie jest jedną technologią. To raczej wzorzec budowania aplikacji: model plus narzędzia plus pamięć plus zasady plus monitoring. Tak jak „aplikacja mobilna” może oznaczać kalkulator albo bank, tak „agent” może oznaczać prostego pomocnika do wyszukiwania w dokumentach albo system, który realnie zmienia dane w firmowym systemie. Różnica między nimi jest ogromna.

Jak to działa pod spodem

Dobrze zbudowany agent nie powinien być magiczną czarną skrzynką. Bardziej przypomina pracownika z listą uprawnień, instrukcją stanowiskową i dziennikiem aktywności. Dostaje cel, ale nie powinien mieć pełnej swobody. Powinien działać w granicach, które ktoś wcześniej wyznaczył.

Widać to dobrze w dokumentacji AutoGen, frameworka rozwijanego przez Microsoft do tworzenia aplikacji jedno- i wieloagentowych. Prosty przykład pokazuje agenta, który dostaje narzędzie, na przykład funkcję sprawdzającą pogodę, wywołuje je, odbiera wynik i formułuje odpowiedź. To mały przykład, ale pokazuje sedno: model nie musi „wiedzieć” wszystkiego. Ma umieć rozpoznać, kiedy skorzystać z narzędzia.

AutoGen pokazuje też drugi ważny element: komunikację między agentami. W dokumentacji Core opisano przykład dwóch agentów, którzy przekazują sobie komunikaty i wykonują proste kroki aż do spełnienia warunku. Autorzy dokumentacji podkreślają, że logika agentów jest oddzielona od sposobu dostarczania wiadomości, a środowisko uruchomieniowe odpowiada za komunikację i cykl życia agentów.

To brzmi technicznie, ale ma bardzo praktyczne znaczenie. W przyszłej firmowej wersji agent od faktur może przekazać sprawę agentowi od zgodności, ten agentowi od zamówień, a na końcu człowiekowi, jeśli kwota przekracza limit. W wersji dobrej każdy krok jest widoczny. W wersji złej kilka systemów zaczyna działać na podstawie wzajemnych podpowiedzi, których nikt nie rozumie i których nikt nie audytuje.

Warto tu dodać aktualizację: repozytorium AutoGen na GitHubie informuje, że projekt jest obecnie w trybie utrzymania, a nowi użytkownicy powinni zaczynać od Microsoft Agent Framework, określanego jako następca AutoGen dla zastosowań produkcyjnych. To nie unieważnia AutoGen jako źródła edukacyjnego, ale pokazuje, jak szybko zmienia się ten obszar.

Drugim pojęciem, które wraca w rozmowach o agentach, jest MCP, czyli Model Context Protocol. Anthropic ogłosił go jako otwarty standard łączenia asystentów AI z miejscami, w których znajdują się dane: repozytoriami, narzędziami biznesowymi i środowiskami programistycznymi. W uproszczeniu: zamiast pisać osobne integracje do każdego narzędzia, firmy mogą wystawiać dane i funkcje przez ujednolicony protokół.

To może być dla agentów tym, czym wtyczki i API były dla wcześniejszych aplikacji: sposobem na wyjście z izolacji. Agent bez dostępu do narzędzi jest rozmowny, ale ograniczony. Agent z dostępem do narzędzi może być użyteczny, ale staje się też bardziej ryzykowny. Jeśli może czytać dokumenty, może przeczytać za dużo. Jeśli może wysyłać maile, może wysłać zły mail. Jeśli może zmieniać dane, może zmienić nie te dane.

Dlaczego firmy widzą w tym nowego asystenta

Hasło „agent AI zastąpi asystenta” jest chwytliwe, bo dotyka realnego napięcia. W pracy biurowej ogromna część dnia składa się z drobnych, powtarzalnych, rozproszonych zadań: znaleźć informację, przepisać dane, odpisać na prostą wiadomość, ustalić termin, sprawdzić status, przygotować podsumowanie, uzupełnić system, przypomnieć komuś o decyzji. To są zadania, które ludzie wykonują nie dlatego, że są kreatywne, tylko dlatego, że systemy w firmach są rozbite na wiele okien, regulaminów i wyjątków.

Agent AI obiecuje sklejenie tych okien. Ma rozumieć polecenia w języku naturalnym i obsługiwać narzędzia, które dotąd wymagały klikania. Dlatego zainteresowanie jest tak duże w obsłudze klienta, sprzedaży, HR, finansach, analizie dokumentów, prawie, programowaniu i administracji. Microsoft w raporcie Work Trend Index 2025 opisywał wizję „Frontier Firm”, czyli organizacji, w których ludzie pracują razem z zespołami agentów; raport opierał się między innymi na badaniu 31 tys. pracowników wiedzy w 31 krajach.

Firmy konsultingowe również widzą w agentach coś więcej niż kolejny czat. McKinsey pisze, że agenci mogą pomóc wyjść z paradoksu generatywnej AI: wiele firm wdrożyło poziome chatboty i copiloty, ale korzyści są rozproszone i trudne do zmierzenia. Bardziej wartościowe mają być zastosowania pionowe, osadzone w konkretnych procesach, choć według McKinsey około 90 proc. takich zastosowań nadal pozostaje na etapie pilotażu.

To ważne, bo w debacie publicznej często miesza się trzy rzeczy. Pierwsza to automatyzacja zadania: agent odpowiada na prostą reklamację albo tworzy szkic raportu. Druga to automatyzacja procesu: agent przeprowadza sprawę przez kilka systemów, ale człowiek zatwierdza kluczowe momenty. Trzecia to zastąpienie stanowiska: firma uznaje, że nie potrzebuje już części ludzi, bo technologia przejęła większość ich pracy. Dowody na pierwszą rzecz już są. Druga dzieje się w pilotażach i wybranych wdrożeniach. Trzecia jest najbardziej kontrowersyjna i najczęściej wymaga ostrożności w opisie.

Najbardziej znanym przykładem z obsługi klienta jest Klarna. Firma podała w lutym 2024 roku, że jej asystent AI obsłużył 2,3 mln rozmów w pierwszym miesiącu, czyli dwie trzecie czatów z klientami, wykonując — według deklaracji firmy — pracę odpowiadającą 700 pełnoetatowym agentom. Klarna twierdziła też, że czas rozwiązania sprawy spadł z 11 minut do mniej niż 2 minut, a narzędzie było dostępne w 23 krajach i ponad 35 językach. To są dane firmowe, więc należy je traktować jako deklarację spółki, nie niezależny audyt.

Salesforce z kolei ogłosił Agentforce jako warstwę platformy pozwalającą budować i wdrażać autonomicznych agentów AI do działań w sprzedaży, obsłudze klienta, marketingu i commerce. W komunikacie firma pisała, że Agentforce ma wychodzić poza chatboty i copiloty, podejmując decyzje oraz działania, na przykład rozwiązując sprawy klientów czy kwalifikując leady sprzedażowe. To również jest komunikat producenta technologii, więc pokazuje kierunek rynku, ale nie dowodzi samodzielnie skuteczności w każdej firmie.

Najrozsądniej powiedzieć więc tak: agenci AI już przejmują pewne czynności asystenckie. Nie ma jednak twardego potwierdzenia, że w najbliższym czasie zastąpią asystentów jako grupę zawodową. Bardziej prawdopodobna jest zmiana zakresu pracy: mniej przepisywania, umawiania i sprawdzania statusów; więcej kontroli, obsługi wyjątków, komunikacji z ludźmi, odpowiedzialności za decyzje i pilnowania jakości.

Co już działa, a co jest pokazem możliwości

Agenci najlepiej radzą sobie tam, gdzie zadanie ma jasny cel, dostępne są dobre dane, a ryzyko błędu jest ograniczone. Przykład: znalezienie informacji w firmowej bazie wiedzy, przygotowanie streszczenia rozmowy, sklasyfikowanie zgłoszenia, podpowiedzenie odpowiedzi konsultantowi, wygenerowanie szkicu maila, sprawdzenie prostego statusu zamówienia. W takich sytuacjach agent nie musi rozumieć całego świata. Ma wykonać ograniczony proces.

Dużo trudniej robi się wtedy, gdy agent ma działać w otwartym internecie, interpretować niejednoznaczne instrukcje, podejmować decyzje finansowe, obsługiwać konflikty między ludźmi albo działać w systemach, w których każdy błąd ma koszt. Wtedy potrzebne są ograniczenia: progi kwotowe, zatwierdzenia, osobne uprawnienia, testy, logi, monitoring, możliwość przerwania zadania i jasna odpowiedzialność.

Dobrze widać to w projekcie Astra od Google DeepMind. Google opisuje Astrę jako prototyp badawczy prowadzący w stronę „uniwersalnego asystenta AI”. System ma rozumieć obraz, dźwięk i kontekst, reagować proaktywnie, używać narzędzi takich jak Search, Gmail, Calendar, Maps czy kontrola interfejsu, a także działać na telefonach i prototypowych okularach. Jednocześnie Google zaznacza, że Project Astra jest prototypem używanym i dopracowywanym przez ograniczoną liczbę zaufanych testerów.

To ważna różnica. Demo może pokazać kierunek: agent widzi ekran, rozumie głos, pamięta kontekst, wykonuje zadanie. Produkt wdrożony w firmie musi natomiast działać codziennie, z audytem, zgodnością, bezpieczeństwem, obsługą błędów i odpowiedzialnością. Między jednym a drugim jest warstwa nudnych, ale kluczowych pytań: kto ma dostęp do danych, co trafia do logów, co agent może zrobić bez zgody człowieka, jak testujemy jakość, jak cofamy błędną akcję i kto odpowiada, gdy agent się pomyli.

OpenAI wprowadzając narzędzia do budowania agentów pisało wprost, że przekształcenie możliwości modeli w gotowe produkcyjnie agenty bywa trudne, bo wymaga iterowania promptów, własnej logiki orkiestracji i widoczności w działaniu systemu. Nowe narzędzia, takie jak Responses API, Agents SDK, web search, file search czy computer use, mają ułatwić budowanie takich aplikacji, ale sama potrzeba tych narzędzi pokazuje, że agent to nie tylko „lepszy prompt”.

Inaczej mówiąc: agenci są najbardziej wiarygodni jako element procesu, a najmniej wiarygodni jako obietnica „daj mu cel i zapomnij”. Dobry agent powinien być nudny w najlepszym sensie tego słowa: przewidywalny, ograniczony, monitorowany i możliwy do zatrzymania.

Największy problem: agent może się pomylić, ale nadal kliknąć

W zwykłym chatbocie błąd często kończy się na złej odpowiedzi. W agencie błąd może stać się działaniem. To zasadnicza zmiana.

Jeśli model błędnie podsumuje dokument, człowiek może to jeszcze wychwycić. Jeśli agent na podstawie błędnego podsumowania wyśle wiadomość do klienta, anuluje rezerwację, zmieni rekord w CRM albo uruchomi wypłatę, problem jest większy. Agentic AI przesuwa ryzyko z poziomu „AI coś powiedziała” na poziom „AI coś zrobiła”.

Jednym z najpoważniejszych zagrożeń jest prompt injection, czyli sytuacja, w której ktoś ukrywa w danych instrukcje przeznaczone dla modelu. Może to być złośliwy tekst na stronie internetowej, w mailu, w dokumencie albo w repozytorium, które agent czyta. Brytyjskie NCSC ostrzega, że prompt injection nie powinno być traktowane jak zwykły odpowiednik SQL injection, bo w modelach językowych trudno trwale oddzielić dane od instrukcji. Według NCSC nie należy zakładać, że prompt injection da się całkowicie „zatrzymać”; trzeba raczej ograniczać ryzyko i skutki.

To szczególnie ważne dla agentów, bo one czytają świat po to, by działać. Jeżeli agent ma dostęp do poczty, dokumentów i narzędzi, to złośliwa instrukcja ukryta w mailu może próbować nakłonić go do ujawnienia danych albo wykonania akcji. OWASP prowadzi projekt poświęcony bezpieczeństwu aplikacji LLM i agentic AI, wskazując między innymi na potrzebę dokumentowania, ograniczania i łagodzenia ryzyk w systemach generatywnej AI.

Drugim problemem jest pomiar skuteczności. Princetonowska praca „AI Agents That Matter” zwraca uwagę, że benchmarki agentów są młode, często skupiają się zbyt mocno na samej dokładności, a zbyt słabo na koszcie, reprodukowalności i przydatności w realnych zastosowaniach. Autorzy piszą też o ryzyku przeoptymalizowania agentów pod testy, które nie odzwierciedlają prawdziwego świata.

To brzmi akademicko, ale ma praktyczny sens. Agent może dobrze wypadać w pokazie, w benchmarku albo na starannie dobranym zestawie zadań, a potem potykać się w firmie, gdzie dane są brudne, procesy niejednoznaczne, systemy stare, a użytkownicy wpisują polecenia skrótami myślowymi. Princeton podsumowuje ten problem krótko: dobre praktyki oceny agentów nie są jeszcze ustalone, więc trudno oddzielić realny postęp od hype’u.

NIST w profilu zarządzania ryzykiem generatywnej AI również podkreśla, że ryzyka mogą pojawiać się na różnych etapach życia systemu: projektowania, wdrażania, działania i wycofywania. Dokument wskazuje też, że obecne testy przedwdrożeniowe mogą być niewystarczające, niesystematyczne albo niedopasowane do realnego kontekstu użycia.

Właśnie dlatego agentów AI nie powinno się wdrażać tak, jak włącza się nową funkcję w aplikacji. To raczej zmiana w procesie decyzyjnym. A tam, gdzie jest proces decyzyjny, są też odpowiedzialność, uprawnienia, audyt i możliwość odwołania.

Czy agenci AI naprawdę zastąpią asystentów?

Najuczciwsza odpowiedź brzmi: zastąpią część pracy asystentów, ale nie wiadomo, w jakiej skali zastąpią same stanowiska. I to rozróżnienie jest kluczowe.

Asystent czy asystentka w firmie nie tylko „robi kalendarz”. Taka osoba często rozumie kontekst organizacji, relacje między ludźmi, priorytety szefa, niepisane zasady, napięcia, wyjątki, pilność spraw i to, kiedy lepiej zadzwonić, niż wysłać maila. Agent AI może pomóc w kalendarzu, notatkach, podsumowaniach, wyszukiwaniu informacji, przygotowaniu dokumentów czy obsłudze prostych zgłoszeń. Ale to nie znaczy, że automatycznie przejmuje społeczną i organizacyjną inteligencję roli.

Najpierw znikają albo zmieniają się zadania najbardziej „systemowe”: przepisywanie danych, klasyfikowanie wiadomości, umawianie prostych spotkań, generowanie szkiców, wypełnianie szablonów, podsumowywanie dokumentów, pilnowanie statusów. Potem automatyzacja może wejść głębiej: agent sam przygotuje warianty decyzji, wykona część operacji, poprosi o zgodę i udokumentuje przebieg. Ale im bliżej pieniędzy, prawa, reputacji, danych osobowych i relacji z klientem, tym bardziej potrzebny jest człowiek.

Gartner jest tu dobrym zimnym prysznicem. Z jednej strony firma przewiduje, że do 2028 roku 15 proc. codziennych decyzji w pracy może być podejmowanych autonomicznie przez agentic AI, a 33 proc. aplikacji enterprise może zawierać agentic AI. Z drugiej strony ten sam komunikat przewiduje, że ponad 40 proc. projektów agentic AI zostanie anulowanych do końca 2027 roku, między innymi przez brak wartości biznesowej, rosnące koszty lub niedojrzałość technologii.

To nie jest sprzeczność. To raczej opis rynku w fazie gorączki. Część wdrożeń będzie bardzo wartościowa. Część okaże się drogim eksperymentem. Część projektów nazwanych „agentami” nie będzie potrzebowała agentów w ogóle, bo wystarczy prostsza automatyzacja. Część firm wdroży agentów tam, gdzie proces jest gotowy. Inne spróbują agentem przykryć chaos w danych, procedurach i odpowiedzialności — i wtedy agent tylko przyspieszy bałagan.

Dlatego przyszłość asystentów nie będzie wyglądała jak jeden wielki przełącznik: człowiek wyłączony, agent włączony. Bardziej prawdopodobny jest układ hybrydowy. Jeden człowiek będzie obsługiwał więcej spraw, bo część przygotuje agent. Asystenci będą stawać się operatorami procesów i kontrolerami jakości, a nie tylko wykonawcami powtarzalnych czynności. W niektórych firmach oznacza to wzrost produktywności. W innych — redukcje. W jeszcze innych — nowe role, bo ktoś musi projektować, nadzorować i poprawiać pracę agentów.

Największa zmiana może dotyczyć nie tego, że „AI zastąpi asystenta”, lecz tego, że każdy pracownik dostanie asystenta. Tyle że ten asystent będzie wymagał instrukcji, kontroli i rozsądku. Bo agent AI z dostępem do narzędzi jest jak bardzo szybki stażysta z kluczami do biura: może zrobić dużo dobrego, ale nie powinien od razu dostać kodów do sejfu.

Źródła

  • MIT Technology Review — What are AI agents?
  • https://www.technologyreview.com/2024/01/09/1086203/what-are-ai-agents/
  • Microsoft AutoGen — Quickstart — AgentChat documentation
  • https://microsoft.github.io/autogen/stable/user-guide/agentchat-user-guide/quickstart.html
  • Microsoft AutoGen — Quick Start — Core documentation
  • https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/quickstart.html
  • Microsoft GitHub — microsoft/autogen — repozytorium projektu
  • https://github.com/microsoft/autogen
  • OpenAI — New tools for building agents
  • https://openai.com/index/new-tools-for-building-agents/
  • OpenAI Agents SDK — Agents — documentation
  • https://openai.github.io/openai-agents-python/agents/
  • OpenAI Agents SDK — Tools — documentation
  • https://openai.github.io/openai-agents-python/tools/
  • Anthropic — Introducing the Model Context Protocol
  • https://www.anthropic.com/news/model-context-protocol
  • Google Cloud — What is an AI agent?
  • https://cloud.google.com/discover/what-are-ai-agents
  • Google DeepMind — Project Astra
  • https://deepmind.google/models/project-astra/
  • IBM — What Are AI Agents?
  • https://www.ibm.com/think/topics/ai-agents
  • McKinsey — Why AI agents are the next frontier of generative AI
  • https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/why-agents-are-the-next-frontier-of-generative-ai
  • McKinsey / QuantumBlack — Seizing the agentic AI advantage
  • https://www.mckinsey.com/capabilities/quantumblack/our-insights/seizing-the-agentic-ai-advantage
  • Microsoft WorkLab — 2025: The year the Frontier Firm is born
  • https://www.microsoft.com/en-us/worklab/work-trend-index/2025-the-year-the-frontier-firm-is-born
  • Gartner — Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027
  • https://www.gartner.com/en/newsroom/press-releases/2025-06-25-gartner-predicts-over-40-percent-of-agentic-ai-projects-will-be-canceled-by-end-of-2027
  • Salesforce — Salesforce’s Agentforce Is Here: Trusted, Autonomous AI Agents to Scale Your Workforce
  • https://www.salesforce.com/news/press-releases/2024/10/29/agentforce-general-availability-announcement/
  • Klarna — Klarna AI assistant handles two-thirds of customer service chats in its first month
  • https://www.klarna.com/international/press/klarna-ai-assistant-handles-two-thirds-of-customer-service-chats-in-its-first-month/
  • arXiv / Princeton — AI Agents That Matter
  • https://arxiv.org/abs/2407.01502
  • Princeton University — AI Agents That Matter — project page
  • https://agents.cs.princeton.edu/
  • NCSC — Mistaking AI vulnerability could lead to large-scale breaches, NCSC warns
  • https://www.ncsc.gov.uk/news/mistaking-ai-vulnerability-could-lead-to-large-scale-breaches
  • OWASP — OWASP Top 10 for Large Language Model Applications
  • https://owasp.org/www-project-top-10-for-large-language-model-applications/
  • NIST — Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile
  • https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *