Senátoři otázka generálního ředitele Meta Zuckerberga ohledně „úniku“ modelu umělé inteligence LLaMA

Dva Senators Cross se ptají Zuckerberga na únik modelu LLaMA AI a obviňují meta, že nedodržuje bezpečnostní opatření. Meta byla dotázána na její bezpečnostní politiku a preventivní opatření.

Meta bude zodpovědná za „únik“

Nedávno unikl průkopnický velký jazykový model Meta, LLaMA, a byly vzneseny obavy ohledně toho samého. Sens. Richard Blumenthal (D-CT), předseda podvýboru Senátu pro soukromí, technologie a právo, a Josh Hawley (R-MO), člen žebříčku, napsali dopis, který vyvolal otázky ohledně úniku modelu AI. 

Senátoři se obávají, že tento únik by mohl vést k různým kybernetickým zločinům, jako je spam, podvody, malware, porušování soukromí, obtěžování a další nepravosti a újmy. Vyvstává mnoho otázek a dva politici se hluboce zajímají o bezpečnostní systém Meta. Ptali se, jaký postup byl dodržen pro posouzení rizika před spuštěním LLaMA. Řekli, že jsou velmi dychtiví porozumět zásadám a praktikám, které jsou na místě, aby se zabránilo zneužití modelu v jeho dostupnosti.

Na základě odpovědí Mety na jejich otázky Senátoři obvinili Metu z nesprávné cenzury a nedostatku bezpečnostních opatření pro model. ChatGPT Open AI popírá některé požadavky na základě etiky a pokynů. Například, když je ChatGPT požádán, aby napsal dopis jménem něčího syna a požádal o nějaké peníze, aby se dostal z obtížné situace, žádost zamítne. Zatímco na druhé straně LLaMA splní požadavek a vygeneruje dopis. Splní také požadavky, které se týkají sebepoškozování, zločinu a antisemitismu.

Je velmi důležité porozumět rozmanitým a jedinečným vlastnostem LLaMA. Je to nejen odlišný, ale také jeden z dosud nejrozsáhlejších modelů velkých jazyků. Téměř každý necenzurovaný LLM, který je dnes populární, je založen na LLaMA. Je vysoce sofistikovaný a přesný pro model s otevřeným zdrojovým kódem. Příklady některých LLM založených na LLaMA jsou Stanford's Alpaca, Vicuna atd. LLaMA sehrála důležitou roli při vytváření LLM tím, čím jsou dnes. LLaMA je zodpovědná za vývoj chatbotů s nízkou užitnou hodnotou do jemně vyladěných režimů.

LLaMA byla vydána v únoru. Podle Senators Meta umožnila výzkumníkům stáhnout model, ale nepřijala bezpečnostní opatření, jako je centralizace nebo omezení přístupu. Kontroverze vznikla, když se na BitTorrentu objevil kompletní model LLaMA. Díky tomu byl model přístupný každému a všem. To vedlo ke kompromisu v kvalitě modelu AI a vyvolalo problémy s jeho zneužitím. 

Senátoři si zpočátku ani nebyli jisti, zda došlo k nějakému „úniku“. Problémy však nastaly, když byl internet zaplaven vývojem umělé inteligence, který spustily startupy, kolektivy a akademici. Dopis zmiňuje, že Meta musí být zodpovědná za potenciální zneužití LLaMA a před vydáním se musí postarat o minimální ochranu.

Meta dala výzkumníkům k dispozici váhy LLaMA. Bohužel tyto závaží uniklo, což poprvé umožnilo globální přístup.

Nejnovější příspěvky od Ritika Sharma (vidět vše)

Zdroj: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/