Megváltozik-e a kapcsolatunk az AI-jal? Őszintén az OpenAI–Pentagon megállapodásról

OpenAI - Pentagon megállapodás

Aki követte a tevékenységemet az elmúlt néhány évben, az tudja, hogy weboldalkészítőként a mindennapi munkám kihagyhatatlan része lett az AI használata. Nem elméleti szinten érdekel a téma, hanem nagyon is gyakorlati oldalról: napi szinten használom szövegíráshoz, ötleteléshez, rendszerezéshez, kutatáshoz és olyan feladatokhoz, ahol egyszerűen gyorsabbá, átláthatóbbá és hatékonyabbá teszi a munkát.

Ebben az írásban nem arról szeretnék vitát nyitni, hogy kell-e AI, nem kell AI, vagy hogy az AI önmagában jó vagy rossz. Ez a vita Magyarországon még mindig sokszor ezen a szinten ragad, engem viszont most egy ennél jóval konkrétabb kérdés érdekel, nevezetesen az OpenAI és az amerikai védelmi minisztérium megállapodása. 

Nem techbulvárként, nem kívülállóként, hanem felhasználóként érdekel. Olyan emberként, akinek fontos, hogy egy eszköz, amelyre napi szinten támaszkodik, milyen irányba változik technikailag, emberileg és értékrendben is.

Mi történt pontosan az OpenAI háza táján?

2026 február 28-án az OpenAI bejelentette, hogy megállapodott, azaz szerződött a Pentagonnal fejlett AI-rendszerek minősített környezetekben történő telepítéséről. A cég a felhasználói megnyugtatására, azt mondja, hogy a szerződésük három fő vörös vonalat rögzít: az OpenAI technológiája nem használható tömeges belföldi megfigyelésre, autonóm fegyverrendszerek irányítására, illetve magas kockázatú automatizált döntésekre. Azt is hangsúlyozta, hogy ez cloud-only deployment, vagyis nem „guardrails off” modellátadásról van szó, hanem felhős telepítésről, megtartott biztonsági rétegekkel és külön OpenAI-os szakemberekkel akik ellátják ezt a feladatot. Március 2-án az OpenAI még külön pontosította azt is, hogy az eszközeik nem használhatók amerikai állampolgárok belföldi megfigyelésére, és az NSA-szerű hírszerző felhasználáshoz új megállapodás kellene. (Itt zárójelben rögtön lenne egy kérdésem: amerikai állampolgárok belföldi megfigyelésére nem használható… ezek szerint külföldi megfigyelésére igen? És mi van a nem amerikai állampolgárokkal? Tudom, naiv kérdés.)

Papíron tehát a cég azt mondja: igen, belépünk a védelmi térbe, de csak meghúzott határokkal. Csakhogy a közvélemény nem csak azt nézi, mi van papíron, hanem azt is, hogy mit jelent ez irányváltásként. És ez már nem technikai, hanem morális kérdés is. 

Miért lett ekkora a felzúdulás?

Valószínűleg azért, mert sokan úgy érzik, hogy ez nem egyszerűen egy újabb enterprise deal, hanem egy határátlépés. Erre ráerősített, hogy a Reuters szerint Caitlin Kalinowski, az OpenAI egyik hardveres vezetője távozott a cégtől, és nyilvánosan governance-aggályokat fogalmazott meg a döntés körül. Mindeközben a Pentagon nemcsak az OpenAI-t kereste meg, meg hanem a Claude fejlesztőjét az Anthropic-ot is, akik nemet mondtak a megkeresésre. A Washington Post arról írt, hogy az Anthropic–Pentagon konfliktus és az Anthropic nemleges válasza miatt a Claude reputációban és népszerűségben is erősödött, főleg azok körében, akik az AI-cégek etikai határait figyelik. És ez nem csak annyiban nyilvánult meg, hogy a ChatGPT felhasználók nemtetszésüket fejezték ki néhány kommentben, hanem sokan el is hagyták és áttértek a Claude-hoz, sőt egy ”QuitGPT” csoportosulás is létrejött, melynek tagjai nyíltan kiállnak az OpenAI ellen.

Vagyis nem arról van szó, hogy „az internet megint hisztizik valamin”. Van mögötte valós ok, valós értékkonfliktus, valós bizalmi törés. A kérdés nem csak az, hogy mit tud az AI, hanem az is, hogy kinek és milyen célra hajlandó dolgozni

És akkor jön a kérdés, ami engem is foglalkoztat

Vajon ez a megállapodás elviszi-e az erőforrásokat a hétköznapi felhasználóktól?
Magyarul: lassabb lesz-e a rendszer, pontatlanabbak lesznek-e a válaszok, vagy egyszer csak azt vesszük észre, hogy már nem mi vagyunk az elsődleges felhasználók, hanem a nagy intézményi ügyfelek?

Hol van az a pont, amikor úgy döntök, hogy én is váltok?

Amit ma nyilvánosan lehet tudni

Jelenleg nincs nyilvános bizonyíték arra, hogy a civil ChatGPT-felhasználókat hivatalosan hátrasorolnák a védelmi ügyfelek mögé. A publikus információk alapján a kormányzati megoldások legalább részben elkülönített környezetekben futnak, vagyis azt bizonygatják, hogy nem a „sima” felhasználói kapacitásból veszik el az erőt.

A másik fontos jel, hogy az OpenAI nyilvánosan most is kapacitásbővítésről beszél. Február végén 110 milliárd dolláros új befektetést jelentett be Amazon- és NVIDIA-partnerséggel, kifejezetten azért, hogy a növekvő keresletet ki tudja szolgálni a fogyasztói, fejlesztői és üzleti oldalon is. Ez megint nem bizonyítja, hogy minden mindig hibátlan lesz, de azt igen, hogy a nyilvános stratégia jelenleg nem a „kevesebb jusson a mezei usernek” irányába mutat. Legalábbis reméljük…

Szerintük a hétköznapi használat minőségét most is inkább az befolyásolja, hogy milyen csomagban vagy, milyen modellt használsz, és épp mekkora a terhelés. Az OpenAI Help Center szerint a Pro csomaghoz például prioritásos forgalomkezelés tartozik, a státuszoldal pedig külön leírja, hogy az egyéni elérhetőség előfizetési szint, modell és funkció szerint eltérhet. Vagyis: ha akadozást látsz, arról ma még mindig inkább a tier + load + feature kombinációja a felelős, nem a Pentagon-szerződés. 

Amit viszont nem lehet őszintén kijelenteni

Azt nem lehet felelősen kimondani, hogy ez az egész semmilyen hosszú távú változást nem fog hozni.

Nem tudom, milyen belső prioritások változnak meg. Nem tudom, milyen irányba tolja a céges kultúrát. Nem tudom, hogy egy ilyen megállapodás pár hónap vagy pár év múlva milyen további döntésekhez vezet. És azt sem tudom, hogy ahol ma még van vörös vonal, ott holnap is ugyanott lesz-e.

Ezekre most nincs tiszta, publikus válasz. És szerintem pont itt kezdődik az őszinteség: nem csak azt kell kimondani, amit tudunk, hanem azt is, amit nem.

Én most hol állok ebben az AI csatában?

Megfigyelő állásponton.

Nem rohanok azonnal ajtót csapkodni, mert szerintem nem minden döntésre jó reakció az azonnali szakítás. De nem is legyintek, hogy „biztos minden rendben”. 

Figyelek.

Figyelem, romlik-e a szolgáltatás.
Figyelem, változik-e a kommunikáció.
Figyelem, lesznek-e újabb olyan lépések, amelyek már nem férnek bele az értékrendembe.

Mert van egy pont, ahol egy eszköz már nem csak eszköz, hanem döntés is.

És azt hiszem, most sokan pontosan ugyanezt érzik az AI-al kapcsolatban.

A valódi kérdés nem az, hogy melyik modell okosabb, hanem az, hogy melyik céggel tudsz még együtt élni nyugodt gyomorral.

Mert lehet valami gyors, hasznos, zseniális, és közben mégis eljuthatsz oda, hogy már nem az adott cég fejlesztését akarod használni.
És szerintem most ezzel nem vagyok egyedül.

Te hogy látod?

Hogyha szeretnél többet olvasni az AI-ról, akkor kattints Az AI valóban veszélyezteti a webfejlesztők munkáját? című blogposztom linkjére!

Amennyiben szeretnél egy ügyfélszerző weboldalt, akkor küldj nekem üzentet, kérj tőlem időpontot, és beszéljük át, melyik irány illik legjobban a vállalkozásodhoz.

Hogyha szeretnél hasonló hasznos tartalmakat olvasni, melyek segítenek a vállalkozásod fejlesztésében, iratkozz fel a Tippek & Trendek havi összefoglalóira!

Tudás, ami nem túl sok, csak pont elég, hogy jó döntést hozz.

Könnyen emészthető tartalom arról, hogyan legyél magabiztos online szolgáltatóként.
Nem foglak elárasztani, csak segítek eligazodni.

Hírlevél feliratkozás

Kövess engem!

Csatlakozz a Facebook, és Instagram oldalamhoz, vagy iratkozz fel a Tippek & Trendek heti összefoglalóira és elsők között fogsz értesülni a hírekről, érdekességekről és hasznos tanácsokról a webdesign és a vállalkozás fejlesztés világából!

Tippek & Trendek

Tudás, ami nem túl sok, csak pont elég, hogy jó döntést hozz!

Könnyen emészthető tartalom arról, hogyan legyél magabiztos online szolgáltatóként. Nem foglak elárasztani, csak segítek eligazodni. Iratkozz fel!

Hírlevél feliratkozás

Kiemelt bejegyzések

Cimkefelhő