You need to sign in to do that
Don't have an account?
智暁 海野
フローの「レコード検索」で、大量検索を行う場合の考慮事項
お世話になっております。
掲題の件につきまして、ご相談させてください。
Lightning Experienceで、フローの「レコードの検索」を使用し、
検索条件として、「次の文字列と一致する」条件を4項目で設定しようと考えています。
ですが、対象のオブジェクトのレコード数が膨大であり、
かつ上記の検索フローを、1度のイベントで何千回と実施する想定であり、
フロー実施時のパフォーマンスについて懸念があります。
検索条件の順序や、検索方法など、
何か考慮事項や工夫可能な点がございましたら、ご教示いただきたく思います。
稚拙なご質問となり、大変恐れ入りますが、
なにとぞよろしくお願いいたします。
掲題の件につきまして、ご相談させてください。
Lightning Experienceで、フローの「レコードの検索」を使用し、
検索条件として、「次の文字列と一致する」条件を4項目で設定しようと考えています。
ですが、対象のオブジェクトのレコード数が膨大であり、
かつ上記の検索フローを、1度のイベントで何千回と実施する想定であり、
フロー実施時のパフォーマンスについて懸念があります。
検索条件の順序や、検索方法など、
何か考慮事項や工夫可能な点がございましたら、ご教示いただきたく思います。
稚拙なご質問となり、大変恐れ入りますが、
なにとぞよろしくお願いいたします。
https://developer.salesforce.com/docs/atlas.ja-jp.salesforce_large_data_volumes_bp.meta/salesforce_large_data_volumes_bp/ldv_deployments_techniques_using_soql_and_sosl.htm
また、過去の経験上1度のイベントで何千回と実施するケースというのは少し設計に問題があるかもしれません。
Salesforceにはガバナ制限というルールがありますので、何千回と実施するとこの制限に引っかかります。(フローもApexも同様だと思います。)
ご回答いただき、ありがとうございます。
業務都合上、Apexを使用せず標準機能の範囲で実装を考えており、
フロー上での検索方法、およびDataLoaderでの設定によって実装可能かを検証しております。
(おっしゃる通り、ガバナ制限によって大量データを1バッチで投入することは不可能となるため、
処理時間増大を許容して、バッチサイズを小さくする方法で運用を検討中です。)
引き続き、検証を進めていきます。
今後とも、どうぞよろしくお願いいたします。
システムへの負荷が大きすぎた際に米国のSalesforce本社の方で検知され改善が求められるケースがあるようです。
データ移行などで1日、2日なら問題ないと思いますが、日常業務でバッチサイズ1で大量レコードへのアクセスの場合はこちらのルールに引っかかるかもしれません。
(過去にそういった話を聞いたことがある程度で。公式発表や資料に記載されているわけではないので問題無い可能性もあります。)
可能であればSalesforce社に実装の相談をした方が良いかもしれません。
(実装レベルの相談はプレミアサポートの契約が必要になります。ひとまず営業担当の方には相談可能かもしれません。)