Anthropic és OpenAI vegyészeti és robbantási szakértőket vesz fel AI-rendszereik biztonsági korlátainak kialakítására
A mesterséges intelligenciával (MI) foglalkozó Anthropic és OpenAI olyan fegyver- és robbanóanyag-szakértőket keres, akik segítenek megakadályozni technológiájukkal való visszaélést - derül ki mindkét vállalat álláshirdetéseiből.
Az Anthropic egy LinkedIn bejegyzésben (forrás: angol) jelentette be, hogy szakpolitikai szakértőt keres vegyi fegyverek és robbanások területére, hogy megelőzze technológiájának „katasztrofális mértékű visszaélését” azáltal, hogy meghatározza, MI-rendszerei miként kezeljék az ezekhez a területekhez kapcsolódó érzékeny információkat.
Az Anthropicnál felvett szakember feladata lesz annak a biztonsági korlát-rendszernek a megtervezése és felügyelete, amely meghatározza, hogyan reagálnak a MI-modellek a vegyi fegyverekre és robbanóanyagokra vonatkozó utasításokra. Emellett „gyors reagálást” kell adnia minden olyan eszkalációra, amelyet az Anthropic a fegyverekkel és robbanásokkal kapcsolatos kérdésekben észlel.
A jelentkezőknek legalább öt év tapasztalattal kell rendelkezniük „vegyi fegyverek és/vagy robbanóanyagok elleni védelem” területén, valamint ismerniük kell a „radiológiai szóróeszközöket”, az úgynevezett piszkos bombákat. A munkakör része új kockázatértékelések kidolgozása (forrás: angol), amelyekben a vállalat vezetése „megbízhat a nagy tétű bevezetések során".
Az OpenAI hónap elején közzétett álláshirdetése szerint kutatókat keres Preparedness csapatába, amely a „legfejlettebb MI-modellekhez kapcsolódó katasztrofális kockázatokat” figyeli.
A cég egy Threat Modeler pozíciót is meghirdetett, amely egyetlen személyre ruházná a „frontier kockázatok azonosításának, modellezésének és előrejelzésének” elsődleges felelősségét, és „központi csomópontként” kapcsolná össze a technikai, irányítási és szakpolitikai nézőpontokat az MI-ből fakadó frontier kockázatok kezelésének prioritásairól, fókuszáról és indokairól.
Az Euronews Next megkereste az Anthropicot és az OpenAI-t az álláshirdetésekkel kapcsolatban, de egyelőre nem kapott választ.
A mostani toborzás azt követően indult, hogy az Anthropic jogi úton megtámadta az amerikai kormány döntését, amely „ellátási láncbeli kockázatnak” minősítette a céget - ez a címke lehetővé teszi a kormány számára, hogy blokkolja a szerződéseket, vagy utasítsa a tárcákat, hogy ne működjenek velük együtt.
A konfliktus február 24-én kezdődött, amikor a Department of War (DOW) korlátlan hozzáférést követelt az Anthropic Claude nevű chatbotjához.
Dario Amodei vezérigazgató közölte (forrás: angol), hogy a DOW-val kötött szerződéseknek nem szabadna olyan eseteket tartalmazniuk, amikor a Claude-ot tömeges belföldi megfigyelésre vetik be, vagy teljesen autonóm fegyverekbe integrálják.
Röviddel az Anthropickal való összetűzés után az OpenAI megállapodást írt alá a Department of Warral (DOW) MI-rendszereinek minősített környezetekben történő alkalmazásáról. A vállalat közlése szerint a megállapodás szigorú tiltóvonalakat tartalmaz, például kizárja rendszereinek használatát tömeges megfigyelésre vagy autonóm fegyverekben.