Background waves

Anthropic is having a month

GettyImages-1570465901.jpg

Anthropic përballet me një rrjedhje të madhe të kodit burimor

Anthropic ka ndërtuar identitetin e saj publik rreth idesë fituese se është kompania e kujdesshme për Inteligjencën Artificiale. Ajo publikon punime të detajuara mbi rrezikun e AI, punëson disa nga studiuesit më të mirë në këtë fushë dhe është shprehur shpesh për përgjegjësitë që vijnë së bashku me ndërtimin e kësaj teknologjie të fuqishme – aq shpesh, sa aktualisht po përballet edhe me Departamentin e Mbrojtjes.

Të martën, dikush në kompani harroi të verifikonte një kutizim të thjeshtë. Kjo është hera e dytë brenda një jave që kjo ndodh. Të enjten e kaluar, u raportua se Anthropic aksidentalisht kishte bërë publike gati 3,000 skedarë të brendshëm, përfshirë një postim blog që përshkruante një model të ri të fuqishëm, të pa shpallur zyrtarisht nga kompania.

Një rrjedhje që ekspozoi mijëra skedarë dhe qindra mijëra rreshta kodi

Të martën, kur Anthropic publikoi versionin 2.1.88 të paketës së softuerit Claude Code, padashje përfshiu një skedar që ekspozoi pothuajse 2,000 skedarë kod burimor dhe mbi 512,000 rreshta kodi. Kjo përfaqësonte në thelb skemën arkitekturore të plotë të një prej produkteve më të rëndësishme të kompanisë. Një studiues sigurie, Chaofan Shou, e vuri re menjëherë dhe raportoi publikisht.

Reagimi zyrtar i Anthropic ishte i qetë: “Kjo ishte një çështje e paketimit të publikimit të shkaktuar nga gabimi njerëzor, jo një cenim sigurie.” Megjithatë, brenda kompanisë, rrjedha e situatës ka të ngjarë të ketë qenë më stresuese.

Claude Code nuk është produkt i parëndësishëm. Ky mjet, që përdoret nga linja e komandës, u lejon zhvilluesve të përdorin AI të Anthropic për të shkruar dhe edituar kod. Ai është bërë aq i fortë, sa ka shqetësuar konkurrentët. Sipas raportimeve të WSJ, OpenAI vendosi të mbyllë produktin e saj të famshëm të gjenerimit të videove, Sora, pak muaj pas lansimit, për t’u fokusuar te zhvilluesit dhe ndërmarrjet – pjesërisht për shkak të suksesit dhe rritjes së Claude Code.

Çfarë u ekspozua dhe çfarë pritet të ndodhë më tej?

Ajo që u zbulua nuk ishte vetë modeli i AI, por struktura softuerike rreth tij – udhëzimet që i tregojnë modelit si të sillet, cilat mjete të përdorë dhe ku ndodhen kufizimet e tij. Zhvilluesit nisën të publikojnë analiza të detajuara pothuajse menjëherë. Njëri prej tyre e përshkroi produktin si “një përvojë prodhimi për zhvilluesit, jo thjesht një mbështjellje mbi një API”.

A do të ketë kjo rrjedhje efekte afatgjata, këtë do ta tregojnë koha dhe zhvilluesit. Konkurrentët mund të marrin mësime nga arkitektura e shfaqur; ndërkohë, fusha po ndryshon shumë shpejt.

Fundja, në Anthropic mund ta imagjinoni një inxhinier të talentuar që gjithë ditën pyet veten në heshtje nëse e ka akoma vendin e punës. Shpresojmë që të mos jetë po ai inxhinier, apo të njëjtën ekip, si edhe herën e kaluar.

Tags: Anthropic, inteligjenca artificiale, rrjedhje informacioni, Claude Code, siguria kibernetike, zhvillim softuerik