Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
Baffle、生成AIプロジェクト向けデータ保護ソリューション
Generatived
23/9/27 7:41
Baffle, Inc.は、既存のデータパイプラインと簡単に統合できる、生成AIプロジェクトでプライベートデータを保護するための独自のソリューションを導入した。Baffle Data Protection for AIを使用すると、企業は規制対象データが暗号的に安全であることを保証して生成AIプロジェクトを迅速に進めることができる。これにより、コンプライアンスが確保され、リスクが軽減され、企業はこの高度なテクノロジーの利点を活用できるようになる。公共のインターネットデータから新しい洞察を提供できるChatGPTのような生成AIツールの台頭により、その導入が増加している。ただし、プライベートデータから競争力のある洞察を求めている企業は、このデータをパブリックLLMと共有するリスクに直面している。これにより、セキュリティー上の懸念から、公共の生成AI サービスの使用が禁止された。プライベート生成AIサービス、特に検索拡張生成(RAG)の実装は利用可能だが、特にコンプライアンス規制の点で、データのプライバシーとセキュリティーの課題が依然として存在する。これらの要因は、GenAIプロジェクトの進行を妨げる可能性がある。Baffle Data Protection for AIは、機密データがデータパイプラインに取り込まれるときに高度な暗号化標準(AES)アルゴリズムを使用して暗号化することで、これらの懸念に対処する。このデータがプライベートGenAIサービスで使用される場合、機密データの値は匿名化され、迅速なエンジニアリングや敵対的なプロンプトがあっても平文データの漏洩を防ぐ。このソリューションにより、機密データは、生成AIパイプラインのどこに移動または転送されるかに関係なく、暗号化されたままになる。これにより、権限のないユーザーが平文の個人データにアクセスすることが防止され、企業は関連する暗号化キーをシュレッダーにかけるだけで、GDPRの忘れられる権利などの特定のコンプライアンス要件を満たすことができる。さらに、Baffle Data Protection for AIは、PIIデータを匿名化することで、プライベートデータがパブリックGenAIサービスに公開されるのを防ぐ。この技術ソリューションは、パブリック生成AIIサービスでのプライベートデータの使用を禁止するプロセスとポリシーに追加の保護層を追加する。
最新のニュース
アイフルaihackタイ学生ハッカソン
24/12/30 4:30
アイフル(東京)は、タイのチュラロンコン大学の学生を対象にしたハッカソン「aihack Thailand」を2024年12月に開催した。
Copyright © 2024 Generatived - All right Reserved.
ニュース
Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。
最新のニュース
アイフルaihackタイ学生ハッカソン
24/12/30 4:30
アイフル(東京)は、タイのチュラロンコン大学の学生を対象にしたハッカソン「aihack Thailand」を2024年12月に開催した。