メインコンテンツにスキップ

新しいフォレンジック検索 (限定リリース)

フォレンジック検索は、標準フィルターに加えて、自由形式の自然言語テキスト検索にも対応しました。

一週間前以上前にアップデートされました

概要

Arcules フォレンジック検索 は、従来のUIベースのフィルターと自由形式の自然言語検索を組み合わせたハイブリッド検索エクスペリエンスをサポートするようになりました。プロンプトベースの フォレンジック検索 により、ユーザーは特定の人物や車両を文章で説明して検索でき、調査の柔軟性が向上します。


フォレンジック検索にアクセス

フォレンジック検索は3つの方法でアクセスができます。

  1. 画面左のナビゲーションバー – メインの左側メニューから直接フォレンジック検索に移動します

  2. ビューページ – 右上隅の検索アイコンをクリックします

  3. デバイスページ – デバイスドロワーからビデオプレーヤーを開き、右下隅の検索アイコンをクリックします

アイコンが見えませんか? ユーザーの役割がフォレンジック検索を実行する権限を持っている必要があります。役割と権限の詳細については、こちらで確認できます。

プロンプトベースの検索を使う

フォレンジック検索が読み込まれたら、まず調査したいデバイスを選択します。これにより、複数の場所やビューにまたがるデバイスを選択でき、別々の検索を行うことなく、より広範な調査が可能になります。

デバイスを選択した後は、馴染みのある日付選択と検出フィルター(人、車両)が表示されます。時間範囲希望する検出タイプを選択します。各検出タイプには、衣服や車両の色に基づいて結果を絞り込むためのカラーフィルタリングオプションが含まれています。

フィルターが設定されたら、プロンプトフィールドに自由形式のテキストを使ってさらに結果を絞り込むことができます。

例:特定の時間帯内で「オレンジのシャツを着ている人」といった説明を入力することで、を検索し、結果を絞り込むことができます。

システムは、構造化されたフィルターと自然言語の説明の両方に基づいて一致する動画結果を返します。

検索結果のレビュー

返された結果は、ズームインしたサムネイルとして表示され、迅速な視覚分析と関連する映像の迅速な特定を可能にします。この強化されたサムネイルビューにより、捜査官は各クリップを個別に開かなくても、一致するものを迅速にスキャンし、確認することができます。

結果へのアクションを実行する

関連する映像を特定したら、結果ページから直接アクションを取ることができます。


1. 検索結果からエクスポート

結果画面で「エクスポート」をクリックします

2. ケースにエクスポート

「ケースにエクスポート」を選択し、証拠を添付する適切なケースを選びます。

3. ケース内の証拠を管理

エクスポート後、選択したケース内で証拠が利用可能になります。ケースページから次のことができます:

  • ケース証拠パッケージをダウンロードする

  • Arculesを使用している同僚と共有する

  • 外部ケース共有機能を使用して外部に共有する

よくある質問 (FAQ)


主な仕様

Q: フォレンジック検索はどのデプロイメントタイプでサポートされていますか?
A: サポートは検索タイプによります

 

 ・標準検出フィルター(人や車の検出)は、ゲートウェイ管理デバイスとエッジ管理デバイスの両方で機能します

 ・プロンプトベースの検索は、クラウド分析が有効なゲートウェイ管理デバイスでのみサポートされています

Q: フォレンジック検索はライブビデオで利用できますか?
A: いいえ。フォレンジック検索は録画(再生)ビデオでのみ機能します

Q: フォレンジック検索はすべての地域で利用できますか?
A: はい。フォレンジック検索は、米国、EMEA、APACの顧客に利用可能です


ライセンスと費用

Q: フォレンジック検索には追加料金がかかりますか、それとも私のクラウドサブスクリプションに含まれていますか?
A: 追加料金は発生しません。クラウドベースのオブジェクト検出は、あなたのクラウドVMSにサブスクリプション登録されているカメラの最大20%に無償で含まれています。20%以上のカメラに対してクラウド検出を有効にするには、インテグレーター、リセラー、またはMilestoneアカウントエグゼクティブに連絡してください。サポートされているカメラによって生成されたエッジ分析には、追加料金はかかりません。


モデルと技術

Q: クラウドで使用されるAIモデルは何ですか?
A: 使用されるモデルは検索タイプによります

 ・標準検出フィルター(人や車の検出)ではYOLOを使用

 ・プロンプトベースの検索ではOpenCLIPを使用

Q: どのYOLOバージョンが使用されていますか?
A: YOLO v7です

Q: どのOpenCLIPバージョンが使用されていますか?
A: OpenCLIP ViT-H/14で、LAION-2Bでトレーニングされています


クラウド要件とデータフロー

Q: フォレンジック検索にはクラウド内のビデオデータが必要ですか?
A: 検索タイプによります。

 ・標準検出フィルター(人や車の検出)では、メタデータのみが必要で、ビデオはクラウドに保存する必要はありません。

 ・プロンプトベースの検索では、ビデオをクラウドにアップロードする必要があります。

Q: フォレンジック検索には別のビデオストリームが必要ですか?
A: いいえ。

・クラウドベースの検出: 既存の録画ビデオストリームで実行され、データがクラウドに到達した時点で検索が可能です

・エッジベースの分析: カメラによって生成されたメタデータを使用し、追加のビデオストリームは必要ありません


検索タイミングと保持

Q: フォレンジックデータはどのくらいの期間保持され、どのくらい過去まで検索できますか?
A: フォレンジックデータはビデオ録画と同じ期間保持されます。たとえば、ビデオの保持期間が30日であれば、フォレンジックデータも30日保持されます

Q: 分析が有効になる前に作成された録画を検索できますか?
A: いいえ。物体検出がデバイスの分析設定で有効になった後にキャプチャされた録画のみが分析され、検索可能です

Q: 新しい録画が検索可能になるまでにどのくらい時間がかかりますか?
A: 検索タイプによります。

 ・標準検出フィルター(人や車の検出)の場合、メタデータがクラウドに到達した時点で録画は検索可能になります。

 ・プロンプトベースの検索では、ビデオデータがクラウドに到達した後に録画が検索可能になります。


プロンプトベースの検索

Q: 「結果を絞り込む」フィールドでサポートされている入力の種類は何ですか?
A: 結果を絞り込むフィールドでは、OpenCLIPモデルによってパワーされた短いビジュアルテキストプロンプトがサポートされます

Q: プロンプトの長さに制限はありますか?
A: はい。プロンプトは、最適なパフォーマンスのためにスペースを含めて50文字以内であるべきです

Q: オブジェクトの近接性は結果にどのように影響しますか?
A: 検出されたオブジェクト(人または車)が主なアンカーとして機能し、プロンプトに言及されたものはそのオブジェクトのバウンディングボックスに含まれるために近くにある必要があります


例: 「ノートパソコンを使っている人」 — ノートパソコンは検出された人の近くにある必要があります。フレーム内の他のオブジェクトは返されません。

Q: 複合条件や論理演算子はサポートされていますか?
A: いいえ。システムは論理演算子(AND / OR / NOT)や正確なカウントを解析しません

Q: 信頼性が低いプロンプトの種類は何ですか?
A: システムは以下の点で信頼性に苦慮しています:

  • 行動や意図(例: 盗むつもり)

  • アイテムの欠如(例: マスクなし、バックパックなし)

  • 厳密な論理ルールや正確なカウント(例: 人がちょうど三人、最も左の車)

  • 抽象的または主観的な用語(例: 疑わしい、許可された)

Q: プロンプトベースの検索は英語以外の言語で使用できますか?
A: 現在は英語のみがサポートされています

Q: 潜在的に有害なプロンプトに対するセーフガードはありますか?
A: はい。すべてのプロンプトは実行前にバックエンドで検証され、安全で責任ある使用を確保します

Q: この機能を私の組織で有効にするにはどうすればよいですか?
A: この機能は現在限定リリース中です。有効にするには、チャットでご連絡いただくか、プロダクトマネジメントチームまたはあなたのMilestoneアカウントエグゼクティブにお問い合わせください。


ワークフローと統合

Q: フォレンジック検索はケースとどのように統合されますか?
A: フォレンジック検索で関連するビデオクリップを特定したら、それを直接ケースに書き出すことができます

Q: 検索結果を私の組織の外で共有できますか?
A: はい、ただしビデオクリップをケースに書き出した後のみです。外部ケース共有機能を使用することで、ビデオエビデンスを外部のユーザーと共有できます。


使用とプライバシー

Q: 複数のユーザーが同時にフォレンジック検索を実行できますか?
A: はい。複数のユーザーが同時に検索を実行できます

Q: Milestoneは顧客データを使用してAIモデルを訓練しますか?
A: いいえ。Milestoneは顧客のビデオやメタデータを使用してAIモデルの訓練を行いません


パフォーマンスと制限

Q: 予想よりも少ない結果が表示されるのはなぜですか?
A: 可能な理由には以下が含まれます:

  • 指定した日付範囲外のビデオ

  • 指定した日付範囲がビデオストレージ/保持限度を超えている

  • フィルターやプロンプトがあまりにも特定的である

  • 録画が完全にクラウドにアップロードされていない

  • プロンプトに言及されたオブジェクトが検出された人または車に近くない(近接要件)

Q: 検索クエリを保存または再利用できますか?
A: 現在、検索は保存できません。将来のリリースでは、繰り返しの調査ワークフローのための保存された検索が含まれる可能性があります

Q: モバイルデバイスからフォレンジック検索を実行できますか?
A: フォレンジック検索は主にウェブ/デスクトップ用に設計されており、現在はモバイルがサポートされていません

Q: 検索には音声や他のセンサー データを含めることができますか?
A: いいえ。フォレンジック検索はビデオと関連するメタデータのみをサポートしており、音声は分析されません


トラブルシューティング

Q: 検索結果に問題がある場合、どうすればよいですか?
A: Visual Stageコールセンターまたは購入元の担当営業 にご連絡ください

こちらの回答で解決しましたか?