Newsletter Hírlevél Events Események Podcasts Videók Africanews
Loader
Hirdetés

Fegyverszakértőket toboroz az Anthropic és az OpenAI a „katasztrofális visszaélés” megelőzésére

Archív: Anthropic weboldal és mobilalkalmazás New Yorkban, 2024. július 5.
ARCHÍV - Az Anthropic weboldala és mobilalkalmazása látható ezen a fotón New Yorkban, 2024. július 5-én Szerzői jogok  AP Photo/Richard Drew, File
Szerzői jogok AP Photo/Richard Drew, File
Írta: Anna Desmarais
Közzétéve:
Megosztás Kommentek
Megosztás Close Button

Anthropic és OpenAI vegyészeti és robbantási szakértőket vesz fel AI-rendszereik biztonsági korlátainak kialakítására

A mesterséges intelligenciával (MI) foglalkozó Anthropic és OpenAI olyan fegyver- és robbanóanyag-szakértőket keres, akik segítenek megakadályozni technológiájukkal való visszaélést - derül ki mindkét vállalat álláshirdetéseiből.

HIRDETÉS
HIRDETÉS

Az Anthropic egy LinkedIn bejegyzésben (forrás: angol) jelentette be, hogy szakpolitikai szakértőt keres vegyi fegyverek és robbanások területére, hogy megelőzze technológiájának „katasztrofális mértékű visszaélését” azáltal, hogy meghatározza, MI-rendszerei miként kezeljék az ezekhez a területekhez kapcsolódó érzékeny információkat.

Az Anthropicnál felvett szakember feladata lesz annak a biztonsági korlát-rendszernek a megtervezése és felügyelete, amely meghatározza, hogyan reagálnak a MI-modellek a vegyi fegyverekre és robbanóanyagokra vonatkozó utasításokra. Emellett „gyors reagálást” kell adnia minden olyan eszkalációra, amelyet az Anthropic a fegyverekkel és robbanásokkal kapcsolatos kérdésekben észlel.

A jelentkezőknek legalább öt év tapasztalattal kell rendelkezniük „vegyi fegyverek és/vagy robbanóanyagok elleni védelem” területén, valamint ismerniük kell a „radiológiai szóróeszközöket”, az úgynevezett piszkos bombákat. A munkakör része új kockázatértékelések kidolgozása (forrás: angol), amelyekben a vállalat vezetése „megbízhat a nagy tétű bevezetések során".

Az OpenAI hónap elején közzétett álláshirdetése szerint kutatókat keres Preparedness csapatába, amely a „legfejlettebb MI-modellekhez kapcsolódó katasztrofális kockázatokat” figyeli.

A cég egy Threat Modeler pozíciót is meghirdetett, amely egyetlen személyre ruházná a „frontier kockázatok azonosításának, modellezésének és előrejelzésének” elsődleges felelősségét, és „központi csomópontként” kapcsolná össze a technikai, irányítási és szakpolitikai nézőpontokat az MI-ből fakadó frontier kockázatok kezelésének prioritásairól, fókuszáról és indokairól.

Az Euronews Next megkereste az Anthropicot és az OpenAI-t az álláshirdetésekkel kapcsolatban, de egyelőre nem kapott választ.

A mostani toborzás azt követően indult, hogy az Anthropic jogi úton megtámadta az amerikai kormány döntését, amely „ellátási láncbeli kockázatnak” minősítette a céget - ez a címke lehetővé teszi a kormány számára, hogy blokkolja a szerződéseket, vagy utasítsa a tárcákat, hogy ne működjenek velük együtt.

A konfliktus február 24-én kezdődött, amikor a Department of War (DOW) korlátlan hozzáférést követelt az Anthropic Claude nevű chatbotjához.

Dario Amodei vezérigazgató közölte (forrás: angol), hogy a DOW-val kötött szerződéseknek nem szabadna olyan eseteket tartalmazniuk, amikor a Claude-ot tömeges belföldi megfigyelésre vetik be, vagy teljesen autonóm fegyverekbe integrálják.

Röviddel az Anthropickal való összetűzés után az OpenAI megállapodást írt alá a Department of Warral (DOW) MI-rendszereinek minősített környezetekben történő alkalmazásáról. A vállalat közlése szerint a megállapodás szigorú tiltóvonalakat tartalmaz, például kizárja rendszereinek használatát tömeges megfigyelésre vagy autonóm fegyverekben.

Ugrás az akadálymentességi billentyűparancsokhoz
Megosztás Kommentek

kapcsolódó cikkek

Futárobotokat tanít a Pokémon Go: a játékosok tudtukon kívül segítenek

Kibertámadások fegyverként: hogyan alkalmazzák az Irán elleni háborúban?

MI-ügynököktől az űrig: az Nvidia éves konferenciájának fő pillanatai