Microsoft vylepšuje zabezpečení AI Chatbotů, aby zabránil podvodníkům

Společnost Microsoft Corp přidala do Azure AI Studio řadu bezpečnostních funkcí, které by měly postupem času nadále snižovat pravděpodobnost, že její uživatelé nakonfigurují modely umělé inteligence do režimu, který by je přiměl chovat se abnormálně nebo nevhodně. Nadnárodní technologická společnost se sídlem v Redmondu, Washington, nastínil vylepšení v blogovém příspěvku, přičemž zdůraznil zaručení integrity interakcí AI a posílení důvěry v uživatelskou základnu.

Pohotové štíty a další 

Mezi hlavní pokroky patří vytvoření „promptních štítů“, technologie, která je navržena tak, aby nacházela a zabíjela rychlé injekce při konverzaci s AI chatboty. Jedná se o takzvané útěky z vězení a jsou to v podstatě vstupy od uživatelů, které jsou záměrně vytvořeny takovým způsobem, aby vyvolaly nežádoucí odezvu modelů AI.

Například Microsoft hraje svou roli nepřímo rychlými injekcemi, kde je možné provedení zlých rozkazů, a takový scénář může vést k vážným bezpečnostním důsledkům, jako je krádež dat a únos systému. Podle Sarah Bird, produktové ředitelky odpovědné umělé inteligence společnosti Microsoft, jsou mechanismy klíčové pro detekci a reakci na tyto jedinečné hrozby v reálném čase.

Microsoft dodává, že brzy se na obrazovce uživatele objeví upozornění, která upozorní na to, kdy model pravděpodobně vyjadřuje nepravdivé nebo zavádějící informace, což zajistí větší uživatelskou přívětivost a důvěru.

Budování důvěry v nástroje AI 

Úsilí společnosti Microsoft je součástí větší iniciativy, jejímž cílem je dát lidem důvěru ve stále populárnější generativní AI, která je široce používána ve službách zaměřených na individuální spotřebitele a firemní klientelu. Microsoft prošel hřebenem s jemnými zuby poté, co se objevily případy, kdy uživatelé měli možnost hrát s chatbotem Copilot tak, aby produkoval bizarní nebo škodlivé výstupy. To bude na podporu výsledku, který ukazuje potřebu silné obrany proti zmíněným manipulativním taktikám, které pravděpodobně porostou s AI technologiemi a populárními znalostmi. Předvídání a následné zmírňování spočívá v rozpoznání vzorců útoku, jako je situace, kdy útočník opakuje dotazy nebo výzvy při hraní rolí.

Microsoft jako největší investor a strategický partner OpenAI posouvá hranice toho, jak začlenit a vytvořit odpovědné, bezpečné generativní technologie umělé inteligence. Oba se zavázali k odpovědnému nasazení a základním modelům generativní umělé inteligence pro bezpečnostní opatření. Bird však připustil, že tyto velké jazykové modely, i když začínají být považovány za základ velké části budoucích inovací AI, nejsou odolné vůči manipulaci.

Stavění na těchto základech bude vyžadovat mnohem více než jen spoléhat se na samotné modely; vyžadovalo by to komplexní přístup k bezpečnosti a zabezpečení umělé inteligence.

Microsoft nedávno oznámil posílení bezpečnostních opatření pro své Azure AI Studio, aby ukázal a zaručil proaktivní kroky, které jsou přijímány k ochraně měnícího se prostředí AI hrozeb.

Snaží se zabránit zneužití AI a zachovat integritu a spolehlivost interakce AI začleněním včasných obrazovek a výstrah.

S neustálým vývojem technologie AI a jejím přijetím do mnoha součástí každodenního života bude nejvyšší čas, aby Microsoft a zbytek komunity AI zachovali velmi ostražitý postoj k zabezpečení.

Zdroj: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/