Splashtop でエンタープライズジェネレーティブ AI への安全なアクセスを実現
ChatGPTをはじめとするジェネレーティブAIの人気の高まりは、企業や社会の変革期の始まりを示しています。AIと機械学習(ML)は、以前からビジネス価値を高めてきましたが、大規模言語モデル(LLM)を含む生成AIの突然の出現により、すべての業界に変化の波が押し寄せています。
Open AIのChatGPTからAnthropicのClaude、GoogleのBard、Microsoft Bing AIまで、ジェネレーティブAI分野でのSaaSサービスの急増に伴い、あらゆる規模の企業がこれらの新興サービスの利用を管理するガイドラインとポリシーの確立を急いでいます。同時に、この強力でありながら新生のテクノロジーの影響、つまり、個人情報の漏洩リスクを軽減し、知的財産を保護し、潜在的な誤情報や有害なコンテンツに対処し、意図しない著作権侵害を回避する方法にも取り組んでいます。
この急速に進化する状況において、組織にとって特に差し迫った問題として浮上しているのは、ジェネレーティブAIでプライベートデータを安全、確実、効果的に使用する方法です。まさにこの領域で、最近導入された Splashtop Secure Workspace プラットフォームがお手伝いします。
企業向けのプライベートAIモデル
確かに、商用のジェネレーティブAI SaaSサービスの中には、公開モデルの改善に提出されたデータを使用しないことを誓約しているものがあります。しかし、すべての企業が、自分たちがほとんど制御できないクラウドサービスに個人データを送信することに抵抗がないわけではありません。一部の組織は、他の地域または国でホストされているサービスの使用を妨げる主権と規制コンプライアンスの対象となる場合があります。
プライベートAIモデルの恩恵を受ける他の企業は、独自のLLMモデルをゼロからトレーニングするビジネスニーズがある企業、またはカスタマーサポート、財務アドバイザリーなどの特定のタスク用に事前にトレーニングされたデータ拡張と最適化されたLLMモデルを保護する必要がある企業です。
独自のプライベート生成AIおよびMLOpsインフラストラクチャを構築する企業は、オンプレミスであろうとプライベートクラウドであろうと、これらのツールのパワーを独自のIT制御下に置くことができ、ビジネスニーズ、コンプライアンス、および主権の要件に合わせることができます。この設定により、LLM へのクエリのトレーニング、微調整、または拡張に使用される機密データが外部に公開されるのを防ぐことができます。
大規模な言語モデルを含むプライベートアプリケーションへのアクセスの保護
プライベートなセットアップにも保護が必要です。言語モデルからサポートするデータベース、プライベートデータリポジトリまで、機械学習の運用パイプラインのすべてに、安全なプロビジョニング、アクセス、管理が必要です。
そこで、Splashtop Secure Workspace の出番です。私たちは、プライベートLLMを含むあらゆるプライベートエンタープライズアプリケーションへのアクセスを制御するためのシンプルでありながら安全な方法を提供します。エンタープライズアプリケーションがWebベースのインターフェースを提供する場合でも、カスタムのデスクトップまたはモバイルアプリケーションが必要な場合でも、当社のプラットフォームは、ネットワークサービスポートを外部に公開したり、ファイアウォール、要塞ホスト、VPNなどの複雑なネットワーク設定を必要とせずに、任意のクライアントデバイスから、どこでも、すべてから安全なアクセスを可能にします。
すべてのレベルでアクセスを保護
Splashtop Secure Workspace は、LLM を含むあらゆるプライベートエンタープライズアプリケーションへのアクセスを制御するための豊富なオプションセットをサポートしています。主な機能は次のとおりです。
-
シングルサインオン(SSO)統合
一般的なIDプロバイダー(Google、Microsoft、Oktaなど)と同期します -
多要素認証(MFA)
プライベートエンタープライズLLMのチャットインターフェイスを含む、SSO対応のすべてのエンタープライズアプリケーションで、フロントエンドユーザーとバックエンドユーザーの両方に対して強力な認証制御を可能にします。 -
条件付きアクセス制御
ジオロケーションや企業支給のラップトップの使用など、主要なコンプライアンスとセキュリティ基準を確認することで、アプリケーションへのアクセスを制限します。たとえば、データ主権ルールを順守している組織は、従業員が海外に旅行しているときにプライベートLLMへのアクセスをブロックしたい場合があります。 -
特権アクセスと委任制御
Splashtopは、企業アプリケーション内の重要なサブシステムやデータの管理に指定された特権アカウントまたはサービスアカウントを安全に委任することで、アクセス制御を可能にします。LLMの場合、これにより、モデル自体、ベクトルまたはグラフデータベース、構造化されていないデータリポジトリ、またはMLパイプラインへのアクセスを制御し追跡することができ、機密資格情報の不要な露出を回避できます。 -
セキュアな第三者アクセス
当社のプラットフォームは、企業アプリケーションへの一時的なアクセスが必要な第三者とのセキュアなアクセス共有を提供します。これには、オンサイトでのトラブルシューティングのためにセキュアなアクセスが必要なプライベートLLMソリューションプロバイダーが含まれる場合があります。Secure Workspaceは、監査やコンプライアンス目的でセッションを完全に記録しながら、便利なアクセスを可能にします。 -
ゼロトラストネットワークアクセス(ZTNA)
従来のVPNがネットワークのサブネット全体への完全なアクセス権限を付与するのに対し、Splashtop Secure WorkspaceのZTNAアプローチは承認されたリソースへのピンポイントアクセスを付与し、攻撃対象領域を最小限に抑えます。この「デフォルト拒否」アプローチは、企業内のLLMが高度に機密性の高いデータを扱う際に安心感を提供します。 -
API主導の自動化
自動化とDevOpsワークフローにコミットしている企業は、当社のSecure Workspaceプラットフォームを緊密に統合し自動化できる点を評価されるでしょう。生成AIの文脈において、Splashtop Secure WorkspaceはMLOpsパイプラインにシームレスに統合され、重要なリソースへのアクセス権限の自動プロビジョニングやSecure Workspaceプラットフォーム自体の自動設定を可能にし、生産性を最大化し人間エラーを削減します。
次に、Secure Workspaceを使用してエンタープライズジェネレーティブAIへの安全なアクセスを実現する方法を示します。そして、それを進めるために、あなただけのプライベートなLLMベースのチャットボット、つまり自分だけのChatGPTを手に入れることになります。
プライベートLLMチャットボットを作成するための実践ガイド
LLMチャットボットを構築するという概念は、複雑な作業のように聞こえるかもしれません。しかし、現実には、それはあなたが思っているよりも簡単です。dstack という オープンソースの MLOps ツールを使用して、詳しく見ていきましょう。
この例では、1 つの dstack run コマンドで、クラウド環境で LLM-As-Chatbot をプロビジョニングして起動できます。
この例では、Splashtop Secure Workspace コネクタを同時にプロビジョニングして、プライベート LLM チャットボットを Secure Workspace に接続します。その後、他のアプリケーションと同様に、強力な認証、SSO、MFA、および豊富な条件付きアクセス ポリシーのセットを利用して、安全なワークスペース内でアクセス制御を設定できます。
ここでは、プライベート LLM への安全なアクセスを設定するためのステップ バイ ステップ ガイドを示します。
1.リポジトリをクローンする
git clone https://github.com/yanlinw/LLM-As-Chatbot.git
cd LLM-As-Chatbot
2. dstack のインストールとセットアップ
pip install "dstack[aws,gcp,azure,lambda]" -U
dstack start
dstackサーバーが起動したら、ログインし、クラウドの資格情報(AWS、GCP、またはAzure)を使用してプロジェクトを作成します。
3. dstack プロファイルを作成する
LLM-As-Chatbot フォルダのルートの下に .dstack/profiles.yml
ファイルを作成します。このファイルは、作成されたプロジェクトを指し、リソースを記述する必要があります。
例:
profiles:
- name: aws-llm
project: aws-llm
resources:
memory: 16GB
gpu:
count: 1
spot_policy: auto
default: True
4. 初期化
dstackサーバーに切り替え、dstack configコマンドをコピーしてターミナルに貼り付けます。これにより、dstack サーバーは AWS リソースをリモートでプロビジョニングできます。これに続いて、dstack init コマンドを実行します。
dstack config --url http://127.0.0.1:3000 --project ssw-llm --token $MY_TOKEN
dstack init
5. プライベート LLM の Secure Workspace を設定する
Splashtop Secure Workspace Connectors は、プライベートアプリケーションとリソースを Splashtop Secure Workspace に接続するための安全なソリューションを提供します。これにより、これらのプライベートアプリケーションを一元的に制御できます。次に、作業中のプライベート LLM を Secure Workspace に接続してみましょう。
5.1 コネクタを作成し、コネクタ トークンをコピーする
Splashtop Secure Workspace 管理者アカウントにログインします。[Deployment ] メニューに移動し、[Connector] を選択して 、[Add Connector ] ボタンをクリックします。[ヘッドレス/CLI] を選択し 、コネクタ名を入力して [次へ] をクリックします 。「Linux 」を選択し 、「完了」をクリックします 。
コネクタを作成したら、コネクタリストからコネクタ名をクリックして詳細を表示します。 手順 6 で使用するトークン をコピーします。
5.2 LLMアプリケーションの作成
プライベート LLM チャットボット サービスをプライベート アプリケーションとして Secure Workspace に追加して、このサービスを従業員にプロビジョニングします。
「 アプリケーション」/「アプリケーション 」セクションに移動し、「 アプリケーションの追加」/「プライベートアプリケーション の追加」ボタンをクリックします。アプリケーションフォームにアプリケーション名を入力し、ホストとして 「localhost」、ポートとして「6006」 を入力し、プロトコルとして HTTP を選択し 、以前に作成したコネクタ名を選択し、このアプリケーションに適切なグループを割り当てて、[保存]をクリックします 。
Secure Workspace は、プライベート LLM アプリケーションの完全修飾ドメイン名を生成します。
6.クラウドでアプリを実行します
LLM-As-Chatbot フォルダで、 dstack run
コマンドを使用して、クラウド内のプライベート LLM とセキュア ワークスペースをプロビジョニングします ($token
をステップ 5.1 のコネクタ トークンに置き換えます )。
dstack run . -f ssw-private-llm.yml $token
結論
企業が民間のジェネレーティブAIやLLMを採用するにつれ、これらの革新的なシステムへのアクセスを保護することが最重要課題となっています。
Splashtop Secure Workspace は、既存のインフラストラクチャとシームレスに統合しながら、ビジネスクリティカルなシステムへのリモートアクセスを保護します。
この記事で概説した手順に従うことで、プライベート LLM の安全なワークスペースを設定および管理し、運用効率を維持しながら会社独自のデータを保護できます。
ジェネレーティブAIとセキュアアクセスシステムの組み合わせは、ビジネスオペレーションの未来を形作り続け、これらのシステムの採用と安全な管理に積極的に取り組むことで、企業はこの変革の最前線に立つことができます。