Az Anthropic, az egyik vezető mesterséges intelligencia fejlesztő cég, jelentős frissítést jelentett be a felelősségteljes skálázási politikájában (Responsible Scaling Policy, RSP). Ez a keretrendszer arra szolgál, hogy a legfejlettebb AI rendszerek esetén csökkentse a potenciális, súlyos kockázatokat. Az új verzió rugalmasabb és árnyaltabb megközelítést kínál a kockázatok értékelésére és kezelésére, miközben továbbra is ragaszkodik ahhoz az alapelvhez, hogy csak akkor fejleszt és alkalmaz AI modelleket, ha megfelelő biztonsági intézkedések biztosítottak.
Az AI fejlődése: lehetőségek és kihívások
Az AI technológia rohamos fejlődése rengeteg ígéretet hordoz magában. A mesterséges intelligencia segíthet felgyorsítani a tudományos felfedezéseket, forradalmasíthatja az egészségügyet, javíthatja az oktatást, és új kreatív területeket nyithat meg az emberi innováció előtt. Ugyanakkor a legfejlettebb AI rendszerek újfajta kihívásokat és kockázatokat is jelentenek, amelyeket alaposan meg kell vizsgálni és megfelelően kezelni kell.
Az Anthropic 2023 szeptemberében hozta nyilvánosságra első felelősségteljes skálázási politikáját, amelynek célja az egyre képzettebb AI rendszerek kockázatainak kezelése. Egy évnyi tapasztalat és tanulás után most egy jelentősen továbbfejlesztett verziót tettek közzé, amely a gyakorlati tapasztalatokat és a technológiai fejlődést is figyelembe veszi. Ez a politika főként a súlyos, katasztrofális kockázatokra fókuszál, ám az Anthropic más irányelvekkel is foglalkozik, például a termékeik felelős használatát szabályozó előírásokkal, amelyek tiltják a félretájékoztatást, az erőszak vagy gyűlöletkeltés szítását, valamint a csaló vagy visszaélésszerű felhasználást.
Arányos és fokozatos védelem a kockázatok ellen
Az RSP alappillére továbbra is az, hogy nem fejlesztenek vagy alkalmaznak AI modelleket addig, amíg nem állnak rendelkezésre a megfelelő biztonsági és védelmi intézkedések, amelyek a kockázatokat elfogadható szint alá szorítják. A védelem elve az arányosságon alapul: a biztonsági intézkedések fokozódnak a modell képességeinek növekedésével. Ez az AI Safety Level Standards (ASL Standards) rendszerében jelenik meg, amely egyfajta fokozatos biztonsági skálát jelent – az egyszerűbb, például sakkjátékra képes mesterséges intelligenciáktól (ASL-1) egészen a bonyolultabb rendszerekig.
Az új szabályozásban két kulcsfontosságú képességi küszöböt határoztak meg, amelyek átlépésekor szigorúbb biztonsági intézkedések lépnek életbe. Az egyik az autonóm AI kutatás-fejlesztés, amikor egy modell képes önállóan komplex kutatási feladatokat végezni, emberi szakértelmet imitálva. Ebben az esetben akár ASL-4 vagy magasabb szintű biztonsági előírásokat kell alkalmazni, hogy megelőzzék a kockázatok kontrollálhatatlan gyorsulását. A másik kritikus küszöb a vegyi, biológiai, radiológiai és nukleáris fegyverek (CBRN) előállításában vagy alkalmazásában való segítségnyújtás lehetősége, ahol az ASL-3 szintű, fokozott biztonsági és telepítési korlátozások lépnek életbe.
Gyakorlati megvalósítás és átlátható felügyelet
Az Anthropic részletes értékelési mechanizmusokat vezetett be, amelyek rendszeresen vizsgálják a modellek képességeit és a meglévő biztonsági intézkedések hatékonyságát. Ezek az értékelések segítenek eldönteni, hogy a jelenlegi védelem elegendő-e, vagy szükséges-e további szigorítás. Az értékelések dokumentálása és a döntéshozatali folyamatok a nagy megbízhatóságú iparágakból ismert biztonsági eset-módszertanokat követik.
Az új politika része a belső stressztesztek alkalmazása és a külső szakértői visszajelzések bevonása is, ami tovább növeli az átláthatóságot és a megbízhatóságot. Az Anthropic tapasztalatai alapján ezek az újítások nemcsak a biztonságot erősítik, hanem elősegítik a gyors fejlődés nyomon követését és a kockázatok időben történő kezelését.
Az Anthropic elkötelezett abban, hogy a mesterséges intelligencia fejlődését felelősségteljesen kísérje, és ennek érdekében folyamatosan fejleszti kockázatkezelési keretrendszerét. Az updated Responsible Scaling Policy egy olyan új mérföldkő, amely jobban felkészíti a társadalmat és a technológiai szektort az AI gyors előretörésének biztonságos kezelésére.