context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | オールパーパス(all-purpose)クラスターは複数のユーザーで共有でき、アドホック分析、データ探索、開発においてはベストな選択肢と言えます。処理の実装が完了して本格運用の準備が整ったら、その処理をジョブクラスターで実行するように切り替えます。ジョブクラスターはジョブが終了した際に削除されるので、リソースの利用料とコストを削減することができます。 | オールパーパスクラスターとジョブクラスターの違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | クラスターのコストの主要要素は、クラスターによって消費されるDatabricksユニット(DBU)と、クラスターと実行するのに必要となるインフラリソースのコストとなります。目立たない副次的なコストには、SLAを満たせないことによるビジネスコストや、貧弱なコントロールによって失わられるリソース、従業員の生産性が挙げられます。 | クラスターのコストの主要要素は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Databricksでは3つのクラスターモードをサポートしています。Standard、High ConcurrencyとSingle Nodeです。多くの一般的なケースではStandardとSingle Nodeクラスターを使用します。 | Databricksでサポートしているクラスターモードは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Standard cluster(標準クラスター)は、大規模データをApache Sparkで処理するのに適しています。 | Standard cluster(標準クラスター)は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Single Node cluster(シングルノードクラスター)は、小規模データを利用するジョブや、シングルノードの機械学習ライブラリのような非分散のワークロードを行うためのものです。 | Single Node cluster(シングルノードクラスター)は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | High Concurrency cluster(ハイコンカレンシークラスター)は、複数のユーザーがリソースを共有したい場合やアドホックなジョブを実行する際に最適です。通常、管理者がハイコンカレンシークラスターを作成します。ハイコンカレンシークラスターではオートスケーリングを活用することをお勧めします。 | High Concurrency cluster(ハイコンカレンシークラスター)は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Databricksにおいては、オンデマンドインスタンスと(カスタムスポットプライスを指定した)スポットインスタンスを組み合わせてクラスターを構成することができ、ユースケースに合わせてクラスターを構築することができます。例えば、下の設定においては、ドライバーノードと4台のワーカーノードはオンデマンドインスタンス、残りの4台のワーカーノードはスポットインスタンス(最大のスポットインスタンスプライスはオンデマンドの100%)として起動すべきと設定しています。 | オンデマンド、スポットインスタンスはサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | オートスケーリングを活用することで、リソース利用量を最適化するためにワークロードに応じて、ワーカーノードの数を自動で増減することができます。オートスケーリングを有効化することで、DatabricksはSparkジョブを実行するのに最適なワーカーの数を自動的に決定します。オートスケーリングを用いることで、ワークロードに適した数のクラスターを気にすることなしに、クラスターの高い利用率を実現できます。これにより二つのメリットを享受することができます:
固定サイズのクラスターと比較して多くのケースでコストを削減できます。
固定サイズのクラスターで能力不足が生じた場合と比較して、オートスケーリングのワークロードは高速に動作します。
spark-submitジョブやいくつかのpythonパッケージなど、いくつかのワークロードはオートスケーリングクラスターとの互換性がありません。
シングルユーザーのオールパーパスクラスターにおいて、最小ワーカー数が少なく設定されている場合、オートスケーリングによって開発や分析がスローダウンするケースがあります。これは実行しているコマンドやクエリーが数分に渡ることがあり、クラスターがアイドル状態になった際にコストを節約するためにスケールダウンが発生するためです。次のコマンドが実行された際には、クラスターマネージャーはスケールアップしようとしますが、クラウドプロバイダーからインスタンスを取得するのに数分を要することがあります。この際、ジョブは不十分なリソースで実行しなくてはならず、結果を主とkするのに時間を要することになります。ワーカーの最小数を引き上げることで改善はできますが、このことはコストも引き上げることになります。これは、コストと性能のバランスを取るべきもう一つの例となります。
Delta Cachingを使用している際には、ノードが削除された際にはノードにキャッシュされたいかなるデータも削除されることに留意してください。ワークロードにおいてキャッシュデータの維持が重要な場合には、固定サイズのクラスターを利用することを検討してください。
ETLワークロードでジョブクラスターを利用している場合、ジョブが当面変更されない場合には適切にクラスターをチューニングすることでサイジングすることができます。しかし、データサイズが増加する際にはオートスケーリングによって柔軟性を手にすることができます。また、最適化されたオートスケーリングによって、長い期間実行されるジョブのクラスターが想定されるより利用されない、他のプロセスの結果を待つ必要がある場合において、コストを削減することができます。繰り返しになりますが、クラスターが適切にスケールアップする際にも微小な遅れが生じる場合が相rます。ジョブに対して厳しいSLAが求められる場合には、固定サイズのクラスターが優れた選択肢かもしれませんし、Databricksのプールを活用してクラスター起動時間を削減した方が良いかもしれません。
| オートスケーリングを活用するメリットは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | はい、Databricksではローカルストレージのオートスケーリングもサポートしています。ローカルストレージのオートスケーリングによって、クラスターのSparkワーカーのディスク空き容量を監視します。ワーカーのディスクの空きが減ってきた際、Databricksは自動的にディスク容量が枯渇する前にマネージドのボリュームを追加します。 | Databricksではローカルストレージのオートスケーリングもサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | プールを活用することで、利用可能なインスタンスの群を維持し、クラスターの起動、スケールアップに要する時間を短縮できます。コストを最小化しつつ処理時間を改善するためにプールの活用をお勧めします。 | インスタンス プールを活用するメリットは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | オールパーパスクラスターにおいては、最新のDatabricksランタイムを活用することをお勧めします。最新のバージョンを利用することで、最新の最適化、コードとロード済みパッケージの互換性を活用できます。
運用のワークロードを実行するジョブクラスターに関しては、長期サポート(LTS)Databricksランタイムの利用をご検討ください。LTSバージョンを利用することで、互換性に関する問題を回避し、ワークロードをアップグレードする前に包括的なテストが行えます。機械学習やゲノミクスの最新ユースケースを活用する際には、特定のDatabricksランタイムのバージョンの利用を検討ください。 | Databricksランタイムのバージョンをどうやって選択するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Databricksのクラスターポリシーを活用することで、管理者はクラスターの作成、設定に制限をかけることができます。 | クラスターポリシーを使って何かできるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | 特定期間(デフォルトは120分)が経過した後にクラスターは自動で停止します。
管理者はクラスターポリシーを作成する際にデフォルトの設定を変更することができます。設定値を引き下げることで、クラスターのアイドル時間を減らしコストを削減できます。クラスターが停止しされた際には、すべての変数、一時テーブル、キャッシュ、関数、オブジェクトなどすべての状態が失われることに注意してください。クラスターが再起動した際に、これらの状態が復元される必要があるかもしれません。開発者が30分の昼食に席を外した場合、同じ状態に戻すまでに同じ時間を無駄にすることになるかもしれません。 | クラスターの自動停止をどのように設定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | はい、アイドル状態のクラスターはDBUを消費し続け、停止前のアイドル状態のクラウドインスタンスにも課金が発生します。 | アイドル状態のクラスターには課金が発生しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | はい、ガーベージコレクションに注意を払うことで、クラスターのジョブ実行性能を最適化できる可能性があります。大容量のRAMによって、ジョブの性能を改善できるかもしれませんが、ガーベージコレークションの際に遅延を生じる可能性があります。
長期間のガーベージコレクションの影響を最小化するために、それぞれのインスタンスに大容量のRAMを割り当てることを避けてください。ワーカーに対して大容量のメモリーを割り当てることは、長期間のガーベージコレクションを引き起こします。代わりに、小規模のRAMをインスタンスに割り当て、ジョブが大量のメモリを必要とするのであれば、より大量のインスタンスをデプロイするようにしてください。しかし、クラスターのサイジングの検討で議論しているような、多くのシャッフルを必要とするようなワークロードのように、大容量メモリの少数のノードが適しているケースがあります。 | ガーベージコレクションに注意すべきですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | クラスターのアクセスコントロールに2種類のクラスター権限を設定できます。
ユーザーがクラスターを作成できるかどうかを制御できるAllow Cluster Creation権限
特定のクラスターを利用、編集できるかを設定するクラスターレベルの権限
クラスターの権限設定に関しては、cluster access controlを参照ください。
クラスター作成(Allow Cluster Creation)権限がある、あるいはポリシーの設定に基づいたクラスター作成を許可するクラスターポリシーにアクセスできる場合にはクラスターを作成することができます。クラスターの作成者はオーナーとなり、Can Manage権限を有することになります。これによって、クラスターに対するデータアクセス権限の制約の中で、他のユーザーにクラスターを共有することができます。
一般的なシナリオにおいては、クラスター設定を決定するためにクラスター権限とクラスターポリシーを理解することが重要になります。 | クラスターのアクセスコントロールをどのように設定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | 組織内の異なるグループがクラウドリソースを使う際にクラスタータグを利用することで、容易にコストをモニタリングできます。 | クラスタータグのいいことは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | クラスターを作成する際に、キーバリューの形式でタグを指定することで、DatabricksはインスタンスのEBSなどのクラウドリソースにタグを付与します。 | クラスタータグをどうやって作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | Databricksにおいては、一つのワーカーノードあたり一つのエグゼキューターが稼働します。このため、Databricksアーキテクチャーの文脈においてはワーカーとエグゼキューターが同じ意味で用いられます。クラスターサイズはワーカーの数で決定されると考えるかもしれませんが、他に考慮すべき要因があります。
トータルのエグゼキューターのコア(コンピュート): 全エグゼキューターのトータルのコア数。この値がクラスターの最大並列実行数を決定します。
トータルのエグゼキューターのメモリー: 全エグゼキューターのトータルのRAM。ディスクに溢れる前にメモリに蓄積できるデータ量を決定します。
エグゼキューターのローカルストレージ: ローカルディスクストレージのタイプと総量。主にシャッフルとキャッシュの際のメモリ溢れ(スピル)が発生した場合に使用されます。
追加で検討すべきことには、上記の要因に影響を与えるワーカーのインスタンスタイプとサイズがあります。クラスターのサイジングをする際には以下を検討してください。
ワークロードはどれだけのデータを消費するのか?
ワークロードの計算の複雑性はどの程度か?
どこからデータを読み込むのか?
外部ストレージにおいてデータはどのようにパーティショニングされているのか?
どれだけの並列性を必要とするのか?
これらの疑問に答えることは、ワークロードに最適なクラスター設定を決定するのに役立ちます。狭い変換(入力パーティションが一つの出力パーティションに影響を及ぼす)のみを行うシンプルなETLワークロードにおいては、計算最適化設定に注力します。大量のシャッフルが予想され、メモリーおよびデータ溢れのためのディスクサイズが重要になります。シャッフルが大量に発生するワークロードにおいて、少数の大規模インスタンスはマシン間のデータ転送のネットワークI/Oを削減します。
ワーカーの数とワーカーインスタンスタイプのサイズにはトレードオフの関係があります。40コア、100GBメモリーを持つ2つのワーカーのクラスターは、10コア、25GBメモリーを持つ8台のワーカーと同程度の計算性能、メモリーを有することになります。
同じデータを何度も読み込む場合には、キャッシュの恩恵を受けることができます。Delta Cacheとストレージ最適化設定を検討してください。 | クラスターのサイジングのベストプラクティスを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | 初回の機械学習モデルのトレーニングは実験的なものであるため、クラスターAのような小規模クラスターがお勧めです。小規模クラスターはシャッフルの影響も軽減します。
ステージが進むなどして、安定性が課題になるのであれば、より規模の大きいクラスターBやクラスターCがお勧めです。 | 機械学習モデルのトレーニングに使うクラスターのサイズはどうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | 同じデータを繰り返し読み込むため、Delta Cachingを有効化したストレージ最適化インスタンスの活用、トレーニングデータのキャッシュがお勧めです。ストレージ最適化インスタンスの計算能力、ストレージサイズが不十分である場合には、GPU最適化ノードの利用を検討ください。この場合、Delta Cachingを利用できないというデメリットがあります。 | 機械学習モデルのトレーニングにストレージ最適化インスタンスの利用はおすすめですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | 同じデータを繰り返し読み込むため、Delta Cachingを有効化したストレージ最適化インスタンスの活用、トレーニングデータのキャッシュがお勧めです。ストレージ最適化インスタンスの計算能力、ストレージサイズが不十分である場合には、GPU最適化ノードの利用を検討ください。この場合、Delta Cachingを利用できないというデメリットがあります。
分析のワークロードで推奨する他の機能には以下のものがあります。
利用されない時間が続いた後に、クラスターが停止されるように自動停止を有効化してください。
分析者特有のワークロードに応じてオートスケーリングの活用を検討ください。
事前に定義されたインスタンスタイプ、一貫性のある設定にクラスターを統一できるようにプールの活用を検討ください。 | 分析のワークロードの場合の推奨のクラスター利用方法はありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | unionや複数テーブルのjoinなどの処理を必要とするより複雑なETLジョブにおいては、シャッフルされるデータ量を最小化することが重要となります。クラスターのワーカー数を削減することでシャッフルを最小化できますので、ハイスペックのクラスターではなく、少数のクラスターを検討すべきです。
複雑な変換処理は計算資源を多く必要としますので、ワークロードに最適なコアを割り当てるためには、クラスターにノードを追加する必要があるかもしれません。
シンプルなETLジョブと同様、計算最適化のインスタンスタイプをお勧めします。これらは比較的安価であり、このタイプのワークロードは大量のメモリー、ストレージを必要としません。また、シンプルなETLジョブ同様に、クラスターの起動時間を削減し、ジョブパイプライン実行に要するトータルの時間を削減するためにプールの活用を検討ください。 | 複雑なバッチETLを行う場合にクラスターのサイジングはどうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | クラスター提供の推奨アプローチは、オートスケーリングを伴うクラスターを提供するというハイブリッドのアプローチです。ハイブリッドアプローチでは、オンデマンドインスタンスの数とスポットインスタンスの数を定義し、インスタンスの際少数、再代数を指定してオートスケーリングを有効化します。このクラスターは常時稼働であり、グループのユーザーが利用することができ、負荷に応じてスケールアップ・ダウンします。
ユーザーにはクラスターを開始・停止する権限はありませんが、初期状態から設定されているオンデマンドインスタンスはユーザーからのクエリに即座に反応します。ユーザーのクエリがより多くのキャパシティを必要とした際には、ワークロードに対応できるようにオートスケーリングがより多くのノード(多くはスポットインスタンス)を配置します。 | クラスター提供の推奨アプローチを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | ベストなアプローチは、デフォルト値、固定値、設定のレンジを事前定義した設定のクラスターポリシーを作成するというものです。これにはインスタンスの数、インスタンスタイプ、スポットとオンデマンドインスタンスの比率、ロール、インストールすべきライブラリなどが含まれます。クラスターポリシーを活用することでユーザーは高度な要件に対しても、ユースケースに応じた設定を行い迅速にクラスターを起動でき、ポリシーによってコスト、コンプライアンスを制御することができます。
このアプローチは、ユーザーに対してクラスターを起動することのできるより強い権限を与えるものですが、依然として事前に定義した設定の制限をかけることでコストをコントロールすることが可能です。また、このアプローチにおいては、異なるグループのユーザーに対して、異なるデータへのアクセスが許された異なるクラスターを割り当てることも可能です。
このアプローチにおける欠点は、クラスターにおけるあらゆる変更、設定、ライブラリなど全てにおいて管理者の関与が必要となることです。 | データサイエンティストが複雑なデータ探索や機械学習アルゴリズムを実行するといった、組織内の特定のユースケース、チームにクラスターを提供する必要があります。このタイプのワークロードにおけるベストなアプローチを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | ベストプラクティスはそれぞれのジョブ実行で新規にクラスターを起動するというものです。新規クラスターによるジョブ実行によって、共有クラスターで他の作業と競合することによるSLA違反や処理失敗を避けることができます。ジョブの重要度レベルに応じて、SLAを満足するためにオンデマンドインスタンを使用できますし、コスト低減のためにスポットインスタンスとオンデマンドインスタンスを組み合わせることも可能です。 | バッチワークロードのクラスター提供アプローチを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | クラスターポリシーは、ルールセットに基づいてクラスターの設定を行う能力を制限します。ポリシールールはクラスター作成で利用できる属性や属性値を制限します。クラスターポリシーには利用を特定のユーザーやグループに制限するACLがあります。 | クラスターポリシーは何に対して制限するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | クラスタポリシーを用いることで以下のことが可能となります。
ユーザーによるクラスターの作成を事前に定義された設定に限定する。
(いくつかの値を固定値にし非表示にすることで)ユーザーインタフェースをシンプルにし、より多くのユーザーが自身のクラスターを作成できるようにする。
(時間あたりの価格に影響する属性値に制限をかけることで)クラスターあたりの最大コストを制限することによるコストコントロール | クラスタポリシーを使って何かできるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | クラスターポリシーのアクセス権によって、ユーザーがクラスターを作成する際のポリシードロップダウンで、どのポリシーを選択できるのかを制限することができます。
クラスターの作成権限を持つユーザーは、制限なしポリシーを選択でき、完全に設定可能なクラスターを作成することができます。
クラスター作成権限を持ちクラスターポリシーにアクセスできるユーザーは制限なしポリシーとアクセス権があるポリシーを選択することができます。
クラスターポリシーにのみアクセスできるユーザーは、アクセス権があるポリシーを選択することができます。 | クラスターポリシーのアクセス権によってできることは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | ポリシールールでは以下のタイプの制約を表現することができます。
無効化された制御要素に対する固定値
UIで非表示にされた制御要素に対する固定値(JSONビューでは値は見えます)
値のセットに限定された属性値(許可リストあるいはブロックリスト)
指定された正規表現に合致する属性値
特定のレンジに限定された数値属性
有効化された制御要素においてUIで使用されるデフォルト値 | クラスターポリシーの強制ルールは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | クラスターポリシーはClusters API 2.0で制御される全てのクラスター属性をサポートしています。(タイプとクラスターのフォームのUI要素との関係に基づいて)サポートされる特定のタイプの制約は、フィールドごとに異なる場合があります。
さらに、クラスターポリシーでは以下の合成属性をサポートしています。
時間単位でクラスターが使用できる最大DBUである"max DBU-hour"メトリック。このメトリックは個々のクラスターレベルでのコストを直接コントロールする方法となります。
クラスターを作成するソースの制限: ジョブサービス(jobクラスター)、クラスターUI、クラスターREST API(all-purposeクラスター)。 | クラスターポリシーで管理できるクラスター属性は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | 以下のクラスター属性をクラスターポリシーで制限することはできません。
Libraries API 2.0で管理されるライブラリ。ワークアラウンドはカスタムコンテナかinitスクリプトを使うというものです。
ユーザーあたり作成できるクラスターの数(合計も同時に存在する数も)。ポリシーのスコープは単一のクラスターであり、ユーザーによって作成されたクラスターを知ることができません。
別のAPIで管理されるクラスターのアクセス権(ACL) | クラスターポリシーで管理できないクラスター属性は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/93d7597d7fc739b48bb7 | 固定ポリシー
禁止ポリシー
制限ポリシー:共通フィールド
許可リストポリシー
ブロックリストポリシー
正規表現ポリシー
レンジポリシー
無制限ポリシー | クラスターポリシーのタイプのリストをください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/6cf24cd4ad921aa61356 | データフレームは、異なるタイプを持つことがあるカラムを持つ2次元のラベル付きデータ構造です。データフレームをスプレッドシート、SQLテーブル、シリーズオブジェクトのディクショナリーのようなものと考えることができます。Apache Sparkデータフレームは、一般的なデータ分析問題を効率的に解決できる様に、豊富な機能セット(カラムの選択、フィルター、join、集計)を提供します。
Apache Sparkデータフレームは、耐障害性分散データセット(RDD)の上に構築された抽象化レイヤーです。SparkデータフレームとSpark SQLは統合されたプランニングと最適化エンジンを使用するので、Databricksでサポートされているすべての言語(Python、SQL、Scala、R)でほぼ同じパフォーマンスを得ることができます。 | データフレームとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | パーソナルコンピュートは、すべてのDatabricksワークスペースで利用できるDatabricks管理のデフォルトクラスターポリシーです。このポリシーを用いることで、ユーザーは個人で利用するためのシングルマシンの計算資源を簡単に作成することができ、すぐにワークロード実行を開始し、計算資源管理のオーバーヘッドを最小化することができます。 | パーソナルコンピュート(Personal Compute)とは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | Databricksではワークスペースには2つの意味があります。
Databricksのすべての資産にアクセスするためにチームが使用する統合環境として機能するクラウド上のDatabricksデプロイメントです。皆様の組織においては、必要に応じて単一のワークスペースか複数のワークスペースを持つことができます。
Databricksのペルソナベースの環境のためのUIです。 | Databricksではワークスペースの意味は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | Databricksユニットです。Databricksは、VMインスタンスタイプに基づく時間あたりの計算能力の単位であるDatabricksユニット(DBU)に基づいて課金します。 | DBUは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | 実行可能なコマンド、ビジュアライゼーション、ナラティブなテキストを含むドキュメントのwebベースのインタフェースです。 | Databricksノートブックは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | ビジュアライゼーションへのアクセスを整理するインタフェースです。 | Databricksダッシュボードは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | お使いのクラスターで実行されるノートブックやジョブで利用できるコードのパッケージです。Databricksランタイムには多くのライブラリが含まれており、自分で追加することもできます。 | ライブラリとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | リモートGitリポジトリと同期することで、コンテンツを共同バージョン管理できるフォルダーです。 | Repoとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | 機械学習モデルトレーニングに対応するMLflowランのコレクションです。 | エクスペリメントとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | DatabricksのUIはワークスペースのフォルダーとそこに含まれるオブジェクト、データオブジェクト、計算資源に対して使いやすいGUIを提供します。 | DatabricksのUIに何を提供している? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | リモートGitリポジトリと同期することで、コンテンツを共同バージョン管理できるフォルダーです。 | Repoとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | blobストア上にあるファイルシステム抽象化レイヤーです。ファイルや他のディレクトリを格納するディレクトリが含まれます。DBFSには、皆様がDatabricksを学ぶために活用できるいくつかのデータセットが自動的に登録されます。 | Databricksファイルシステム(DBFS)とは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | 構造化データ表現です。Apache Spark SQLやApache Spark APIでテーブルにクエリーを実行することができます。。 | テーブルとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | カラムやカラムタイプ情報、データの読み書きに必要なシリアライザ、デシアライザを含むデータウェアハウスの様々なテーブルやパーティションに関するすべての構造情報と、データが格納される対応ファイルのすべてを格納するコンポーネントです。すべてのDatabricksデプロイメントにはテーブルメタデータを永続化するために、すべてのクラスターからアクセスできる中央Hiveメタストアが含まれています。また、外部Hiveメタストアを選択することもできます。 | メタストアとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | ノートブックやジョブを実行する一連の計算資源と構成です。クラスターにはall-purpose(汎用)とjobの2つのタイプがあります。
UI、CLI、REST APIを用いてall-purposeクラスターを作成します。手動でall-purposeクラスターを停止、再起動することができます。コラボレーティブかつインタラクティブ分析を行うために、この様なクラスターを複数ユーザーで共有することができます。
新規ジョブクラスターでジョブを実行する際に、Databricksジョブスケジューラーがジョブクラスターを作成し、ジョブが完了するとクラスターを停止します。ジョブクラスターを再起動することはできません。 | クラスターとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | クラスターで実行されるDatabricksによって管理される一連のコアコンポーネントです。Databricksではいくつかのタイプのランタイムを提供しています。
Databricksランタイムには、Apache Sparkだけではなく、ビッグデータ分析における使いやすさ、性能、セキュリティを劇的に改善する多数のコンポーネントとアップデートが含まれています。
Databricks機械学習ランタイムはDatabricksランタイムをベースとしており、機械学習やデータサイエンスですぐに利用できる環境を提供します。TensorFlow、Keras、PyTorch、XGBoostの様な様々な人気のあるライブラリが含まれています。
Databricks Lightは、オープンソース版のApache SparkランタイムのDatabricksパッケージです。Databricksランタイムによって提供される高度なパフォーマンス、信頼性、オートスケーリングのメリットが不要な場合にジョブに対するランタイムの選択肢を提供します。JAR、Python、spark-submitジョブを実行するためにクラスターを作成する際にのみDatabricks Lightを選択することができます。インタラクティブやノートブックジョブのワークロードを実行するクラスターではこれを選択することはできません。 | Databrikcsランタイムとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | クラスターの起動時間とオートスケーリングの時間を削減するアイドル状態で利用可能なインスタンスのセットです。プールにアタッチされると、クラスターはプールからドライバーノードとワーカーノードを割り当てます。プールにクラスターのリクエストに答えるための十分なアイドルリソースがない場合には、プールはインスタンスプロバイダーから新規インスタンスを割り当てることて拡張します。アタッチされたクラスターが停止されると、使用されたインスタンスはプールに返却され、別のクラスターで再利用できる様になります。
| プールとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | データ処理パイプラインを開発、実行するためのフレームワークです。
Create, run, and manage Databricks Jobs: ノートブックやライブラリを即時あるいはスケジュールベースで実行する非インタラクティブなメカニズムです。
Delta Live Tables introduction: 高信頼、維持可能、テスト可能なデータ処理パイプラインを構築するためのフレームワークです。 | ワークフローとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | Databricksでは異なる課金スキームに対応する2つのタイプのワークロードを認識します。データエンジニアリング(job)とデータアナリティクス(all-purpose)です。
データエンジニアリング: Databricksジョブスケジューラーがワークロードごとに作成するジョブクラスターで実行される(自動化)ワークロードです。
データアナリティクス: all-purposeクラスターで実行される(インタラクティブな)ワークロードです。インタラクティブなワークロードは、通常Databricksノートブックのコマンドによって実行されます。しかし、既存のall-purposeクラスターでのジョブ実行もインタラクティブワークロードと見做されます。 | ワークロードとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | サポートされるそれぞれのプログラミング言語に対応するREPLの状態です。サポートされる言語はPython、R、Scala、SQLです。 | 実行コンテキストとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | 機械学習モデル開発をトラッキングするメインの整理ユニットです。エクスペリメントは、モデルトレーニングコードの記録された個々のランを整理、表示、アクセスコントロールを行います。 | エクスペリメントとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | 集中管理された特徴量のリポジトリです。Databricks Feature Storeを用いることで、企業内での特徴量の共有、発見が可能となり、モデルトレーニングと推論で同じ特徴量計算コードを使用することを保証することもできます。 | 特徴量ストアとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | モデルレジストリに登録されたトレーニング済み機械学習モデル、ディープラーニングモデルです。 | モデルとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | Databricks SQLは、SQLクエリーとBIツールを主に用いて作業するデータアナリスト向けのものです。お使いのデータレイクに格納されているデータに対してアドホックのクエリーを実行し、ダッシュボードを作成するための直感的な環境を提供します。このUIはデータサイエンス & データエンジニアリングやDatabricksマシンラーニング環境とは大きく異なります。 | Databricks SQLとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | REST API: Databricks SQLのオブジェクトに対するタスクを自動化できるインタフェースです。 | Databricks SQLのREST APIとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d69401e07906b09bd61d | SQLクエリーを実行する計算資源です。 | Databricks SQLのSQLウェアハウスとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/60704387da2174311f0e | Apache Airflowは、Pythonを用いてプログラム的に、データと機械学習パイプライン(Airflowの用語ではDAGと呼ばれます)を作成、スケジュール、モニタリングすることができる人気かつ拡張可能なプラットフォームです。Airflowには、データベースからクラウドストレージに至る全てとのやりとりを容易にするビルトインのオペレーターが多数含まれています。 | Apache Airflowは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/60704387da2174311f0e | 'apache-airflow-providers-databricks'です。 | Apache Airflowに対するDatabricksプロバイダーのパッケージ名は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/60704387da2174311f0e | はい、AirflowからDelta Live Tablesのパイプラインを起動できるようになりました。 | AirflowからDelta Live Tablesのパイプラインを起動できるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルレジストリは以下の機能を提供します。
時系列順のモデルのリネージュ(どの時点でどのMLflowエクスペリメントとランがモデルを生成したのか)。
サーバレスリアルタイム推論、あるいはクラシックMLflowモデルサービングによるモデルサービング。
モデルのバージョン管理。
ステージの移行(ステージングからプロダクション、アーカイブへなど)。
レジストリのイベントに基づいて自動でアクションを起動するWebhook。
モデルのイベントに対するメールの通知。
また、モデルの説明文を作成、参照したり、コメントすることができます。 | MLflowモデルレジストリはどのような機能を提供していますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルレジストリにモデルを登録する方法は2つあります。MLflowに記録された既存のモデルを登録するか、新規の空のモデルを作成、登録し、過去に記録したモデルを割り当てることができます。 | モデルレジストリにモデルをどのように登録するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | 登録モデルページで新規の空のモデルを作成し、記録されたモデルを割り当てるためにCreate Modelボタンを使うことができます。 | 新規登録モデルを作成し、記録されたモデルを割り当てる操作を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | プログラムからモデルレジストリにモデルを登録する方法は3つあります。すべての方法はMLflowモデルレジストリによって管理されるセキュアな場所にモデルをコピーします。
MLflowエクスペリメントの過程でモデルを記録し、指定された他名前で登録するには、mlflow.<model-flavor>.log_model(...)メソッドを使います。指定された名前の登録モデルが存在しない場合には、このメソッドは新規モデルを登録してバージョン1を作成し、ModelVersion MLflowオブジェクトを返却します。指定された名前の登録モデルがすでに存在しているのであれば、このメソッドは新規モデルバージョンを作成し、バージョンオブジェクトを返却します。
すべてのエクスペリメントのランが完了した後に、指定した名前でモデルを登録し、どのモデルをレジストリに追加するのが最も適切であるのかを決定したのであれば、mlflow.register_model()メソッドを使います。このメソッドには、引数mlruns:URIにランIDを指定する必要があります。指定された名前の登録モデルが存在しない場合、このメソッドは新規モデルを登録してバージョン1を作成し、ModelVersionMLflowオブジェクトを返却します。すでに指定された名前のモデルが登録されているのであれば、このメソッドは新規モデルバージョンを作成し、新規バージョンオブジェクトを返却します。
指定された名前で新たに登録モデルを作成するには、MLflow Client APIのcreate_registered_model()メソッドを使います。モデル名が存在する場合には、このメソッドはMLflowExceptionをスローします。
また、Databricks Terraformプロバイダーやdatabricks_mlflow_modelを用いてモデルを登録することができます。 | APIでどのようにモデルを登録するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルバージョンは以下のステージのいずれかに存在することになります:None、Staging、Production、Archivedです。Stagingステージは、モデルのテストや検証を意味しますが、Productionステージはテストやレビュープロセスが完了したモデルバージョン向けのためのものであり、ライブなスコアリングのためのアプリケーションにデプロイされます。削除できると考えた時点でアーカイブされたモデルバージョンは、不活性状態と見なされます。バージョンが異なるモデルは異なるステージになることができます。 | モデルバージョンのステージはどんなもの? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | Stagingステージは、モデルのテストや検証を意味します。 | モデルのStagingステージにはどういう意味を持つか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | Productionステージはテストやレビュープロセスが完了したモデルバージョン向けのためのものです。 | モデルのProductionステージにはどういう意味を持つか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | 権限がない場合には、ステージ移行をリクエストし、モデルバージョンの移行できる権限を持つユーザーが、リクエストを承認、却下、キャンセルします。 | モデルステージの移行の権限がない場合はどうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | はい、モデルレジストリでは、1つ以上のバージョンの登録モデルがそれぞれのステージに存在することを許容します。 | 一つのステージに登録モデルの複数のバージョンが存在することを許容しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | プロダクションに1つのバージョンのみのモデルが存在する様にしたい場合には、Transition existing Production model versions to Archivedをチェックすることで、現在プロダクションにあるすべてのモデルバージョンをアーカイブすることができます。 | プロダクションに1つのバージョンのみのモデルが存在する様にしたい場合にはどうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルバージョンを新たなステージにアップデートするには、MLflow Client APIのtransition_model_version_stage()メソッドを使います。 | どうやってAPIによるモデルのステージ移行を行いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルレジストリにモデルを登録した後に、バッチ推論やストリーミング推論のためのモデルを使用するノートブックを自動で生成することができます。あるいは、Databricksのサーバレスリアルタイム推論、あるいはクラシックMLflowモデルサービングを用いて、リアルタイムサービングにモデルを使用するエンドポイントを作成することができます。 | どのようにモデルを推論に使うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデル名のフォルダーの配下のフォルダーDLT-Inference配下にノートブックが保存されます。
Streaming (Delta Live Tables) タブをクリックします。
Model versionドロップダウンから、使用するモデルバージョンを選択します。ドロップダウンの最初の2つの項目は、(存在する場合には)モデルの現在のプロダクションとステージングバージョンになります。これらの選択肢のいずれかを選択すると、ノートブックは自動でランの実行時のプロダクションとステージングバージョンを使用します。モデルの開発を進めている際にはこのノートブックをアップデートする必要はありません。
Input tableの隣のBrowseボタンをクリックします。Select input dataダイアログが表示されます。必要に応じて、Computeドロップダウンでクラスターを変更することができます。
モデルに対する入力データを含むテーブルを選択し、Selectをクリックします。生成されたノートブックは、ソースとしての入力テーブルを使用するデータ変換処理を作成し、モデル予測を実行するためにMLflowのPySpark推論UDFとインテグレーションします。モデルを適用する前後で追加の変換処理が必要であれば、生成されたノートブックを編集することができます。
出力のDelta Live Table名を指定します。ノートブックは指定された名前でライブテーブルを作成し、モデル予測結果を格納するために使用します。必要に応じてターゲットデータセットをカスタマイズするために、生成されたノートブックを編集することができます。例えば、出力としてストリーミングライブテーブルを定義し、スキーマ情報やデータ品質制約を追加します。
このノートブックを用いて新たなDelta Live Tablesパイプラインを作成するか、追加のノートブックライブラリとして既存のライブラリに追加します。 | Delta Live Tablesを用いたストリーミング推論をどのように設定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルレジストリでモデルバージョンを比較することができます。
登録モデルページで、モデルバージョンの左のチェックボックスをクリックすることで2つ以上のモデルバージョンを選択します。
Compareをクリックします。
<N>バージョンを比較する画面が表示され、選択されたモデルバージョンのパラメーター、スキーマ、メトリクスを比較するテーブルが表示されます。画面の下には、プロットのタイプ(scatter、contour、parallel coordinates)とプロットするパラメーターやメトリクスを選択することができます。 | どうやってモデルバージョンを比較するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | はい、指定した登録モデルとモデルバージョンにおけるアクティビティに関して、メール通知を行う様にモデルレジストリを設定することができます。
登録モデルページで、Notify me aboutメニューに3つのオプションが表示されます。
All new activity: このモデルのすべてのモデルバージョンのすべてのアクティビティについてメールの通知を送信します。登録モデルを作成した際、この設定がデフォルトになります。
Activity on versions I follow: フォローしているモデルバージョン位関してのみメール通知を行います。この選択によって、フォローしているすべてのモデルバージョンの通知を受け取ります。特定のモデルバージョンの通知をオフにすることはできません。
Mute notifications: この登録モデルのアクティビティについてメール通知を送信しません。 | 指定した登録モデルとモデルバージョンにおけるアクティビティに関して通知設定できるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | 以下のイベントによって通知が行われます。
新規モデルバージョンの作成
ステージ移行のリクエスト
ステージ移行
新規コメント
以下のいずれかを行った際にはモデルの通知を自動で購読します。
モデルバージョンへのコメント
モデルバージョンのステージの移行
モデルのステージの移行をリクエスト | モデル画面の設定できる通知はどんなイベントによって発信するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルレジストリは、アクティビティごとの日毎のユーザーに通知するメールの数に制限を設けています。例えば、ある登録モデルにおいて新規モデルバージョンに関するメールを1日に20回受け取った場合、モデルレジストリは1日の制限に達したことを告げるメールを送信し、次の日までイベントに関するメールを送信しません。
許可するメールの数の制限を増やすには、Databricks担当者にお問い合わせください。 | モデルレジストリでのアクティビティ通知のメール送信の最大数は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | Webhookを用いることで、お使いのインテグレーションが自動でアクションを起動できる様に、モデルレジストリのイベントをリッスンできるようになります。自動化や既存のCI/CDツールやワークフローとお使いの機械学習パイプライン解いて具レーションするためにwebhookを使うことができます。例えば、新規モデルバージョンが作成された際にCIのビルドを起動したり、モデルのプロダクションへの移行がリクエストされるたびにSlackを通じてチームメンバーに通知を行うことができます。 | Webhookを用いることで何かできるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | はい、APIのみ対応できます。登録モデルの名称を変更するには、MLflow Client APIのrename_registered_model()メソッドを使います。 | MLflowに登録しているモデルの名前を変更することができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | モデルを検索する際には、少なくとも読み取り権限を持っているモデルのみが返却されます。 | モデルを検索する際にどんな権限が必要ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | すべての登録モデルの一覧を取得するには、MLflow Client APIのlist_registered_models()メソッドを使います。 | APIによるモデルの検索のメソッドを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | Databricksでは、複数ワークスペースでのモデル共有をサポートしています。例えば、お使いのワークスペースでモデルを開発・記録し、中央管理されているモデルレジストリに登録することができます。これは、複数のチームがモデルにアクセスする際に有用です。複数のワークスペースを作成し、これらの環境横断でモデルを利用、管理することができます。 | ワークスペース間でどのようにモデルを共有するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | お使いのDatabricksワークスペース間でMLflowオブジェクトをインポート、エクスポートするために、ワークスペース間でMLflowエクスペリメント、モデル、ランを移行するためのコミュニティ主導のオープンソースプロジェクトであるMLflow Export-Importを活用することができます。 | ワークスペース間でどのようにMLflowオブジェクトをコピーするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e1688ff127a22fcd76ff | 'MLflow Export-Import' ツールを使うことで、以下のことが可能となります。
同一あるいは異なるトラッキングサーバーにいる他のデータサイエンティストとの共有、コラボレーション。例えば、他のユーザーからのエクスペリメントを、あなたのワークスペースにコピーすることができます。
開発ワークスペースからプロダクションワークスペースの様に、別のワークスペースへのモデルのコピー。
お使いのローカルトラッキングサーバーからMLflowエクスペリメントやランを、Databricksワークスペースにコピー。
ミッションクリティカルなエクスペリメントやモデルを別のDatabricksワークスペースにバックアップ。 | 'MLflow Export-Import'ツールを使って何かできるか? | closed_qa |
|
https://qiita.com/ktmrmshk/items/4f1ead83e51443b99218 | AWS上でDatabricksのワークスペースをデプロイするには、以下の2つの方法があります。
AWSリソースを自動生成(背後ではCloudFormationを使用)し、ワークスペースを自動でデプロイする(メニューではCreate Workpace > Quickstart)
AWSリソースをユーザー側でマニュアルで準備して、それらを用いてワークスペースをデプロイする(メニューではCreate Workpace > Custom AWS configuration) | AWS上でDatabricksのワークスペースをデプロイする方法を教えてください。 | closed_qa |
|
https://docs.databricks.com/spark/latest/spark-sql/language-manual/sql-ref-information-schema.html | INFORMATION_SCHEMA は SQL 標準ベースのスキーマであり、Unity カタログで作成されたすべてのカタログで提供されます。 | Information Schemaって何? | closed_qa |
|
https://qiita.com/maroon-db/items/e1765d546f07682305f4 | 1. 全てのカタログ、スキーマ(データベース)とテーブル一覧の収集
2. テーブルの権限確認
3.最近1時間以内に作成されたテーブル情報
4. カラム数の多いテーブルを多い順にリストする。 | Information Schemaでどんな事ができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f91b6ff0a2c7f892f401 | Delta Live Tablesは高信頼、維持可能、テスト可能なデータ処理パイプラインを構築するためのフレームワークです。お手元のデータに対して実行する変換処理を定義すると、Delta Live Tablesはタスクー消すとレーション、クラスター管理、モニタリング、データ品質、エラーハンドリングを管理します。Delta Live Tablesを用いてすべてのデータ処理ワークフローを構築することもできますし、複雑なデータ処理ワークフローをオーケストレーションするために、Databricksジョブのワークフローの中にパイプラインをインテグレーションすることもできます。 | Delta Live Tablesを用いてどのようなデータの変換処理ができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/780e4ec1d69a5e0d477b | Apache Sparkは、Databricksレイクハウスプラットフォームの心臓であり、プラットフォームの計算クラスターとSQLウェアハウスを強化するテクノロジーです。DatabricksはApache Sparkに最適化されたプラットフォームであり、Apache Sparkのワークロードを実行するための効率的かつシンプルなプラットフォームを提供します。 | Apache Sparkは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/780e4ec1d69a5e0d477b | Databricksという会社はApache Sparkのオリジナルクリエイターによって創業されました。Apache SparkはオープンソースソフトウェアプロジェクトとしてDatabricksを含む数多くのトップカンパニーからのコミッターを有しています。
Databricksでは、Apache Sparkの開発と機能のリリースを継続しています。Databricksランタイムには、更なる最適化とApache Sparkをベースとした専用の機能や、C++で再構築された最適化バージョンのApache SparkであるPhotonを含む拡張版Apache Sparkが含まれています。 | Apache SparkとDatabricksはどのような関係ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/780e4ec1d69a5e0d477b | Databricks上でコンピュートクラスターやSQLウェアハウスをデプロイする際には常に、仮想マシンにApache Sparkが設定されデプロイされます。Databricksによって管理されているので、SparkコンテキストやSparkセッションの設定や初期化を機にする必要はありません。 | Apache SparkはDatabricks上でどのように動作するのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/780e4ec1d69a5e0d477b | Databricksでは数多くのワークロードをサポートしており、Databricksランタイム内には多数のオープンソースライブラリが含まれています。Databrikcs SQLは内部ではApache Sparkを使用していますが、エンドユーザーはデータベースオブジェクトにクエリーするために標準的なSQL構文を使用します。
Databricks機械学習ランタイムはMLのワークロードに最適化されており、多くのデータサイエンティストがDatabricksで作業する際に、TensorFlow やSciKit Learnのような主要なオープンソースライブラリを使用しています。Databricksによってデプロイ、管理されている計算リソースに対して任意のワークロードをスケジュールするためにワークフローを活用することができます。 | Apache Sparkを使うことなしにDatabricksを使うことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/780e4ec1d69a5e0d477b | Databricksレイクハウスプラットフォームは、皆さまのビジネスをスケールさせるエンタープライズソリューションを開発、デプロイするためのセキュアかつコラボレーティブな環境を提供します。Databricksの従業員の多くは、Apache Sparkについて最も知識を持っているメンテナーであり、世界中のユーザーでもあります。我々はユーザーの皆様がApache Sparkが稼働する最速の環境を利用できる様に、継続的に新たな最適化を開発し、リリースし続けています。 | なぜDatabricksではApache Sparkを使っているのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/19e1a02227e91f03121a | データモデルはデータウェアハウス構築におけるフロントと中心を担っています。通常、このプロセスはセマンティックなビジネス情報モデルからスタートし、論理データモデル、そして最後には物理データモデル(PDM)となります。すべては、ビジネス情報モデルとプロセスフローが最初に作成され、企業内のビジネスプロセスと同じ様に、キーとなるビジネスエンティティ、属性、それらのインタラクションがキャプチャされる適切なシステム分析と設計フェーズからスタートします。そして、エンティティが互いにどの様に関係するのかを示す論理データモデルが作成されますが、これは特定の技術に依存しないモデルとなります。最後に、背後の技術プラットフォームに基づいて、データの読み書きが効率的に行われることを保証するために、PDMが作成されます。我々はみんな知っていますが、データウェアハウスにおいては、スタースキーマやデータボルトのような分析フレンドリーなモデリングスタイルが非常に人気があります。 | データウェアハウスにおけるデータモデリングの重要性を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/19e1a02227e91f03121a | 定義されたビジネス問題に基づき、データモデル設計の狙いは再利用可能性、柔軟性、スケーラビリティにおいて容易な方法でデータを表現することとなります。以下に、それぞれのトランザクションを保持するSalesファクトテーブルと、データをスライスアンドダイスするための顧客、商品、店舗、日付のような様々なディメンションテーブルを示す典型的なスタースキーマデータモデルを示します。特定の月において最も人気のある商品は何か、ある四半期で最もパフォーマンスが優れている店舗はどれかと言う様な特定のビジネス上の質問に答えるために、ディメンションがファクトテーブルとjoinすることができます。これらがDatabricksでどの様で実装されているのかを見ていきましょう。 | Databricksにおける物理データモデル作成のベストプラクティスを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/19e1a02227e91f03121a | PK/FK定義をサポートする能力を持つことで、Databricksにおけるデータモデルの定義が非常に簡単になります。また、アナリストが効率的にクエリーを記述するために、Databricks SQLウェアハウスでjoinの関係をクイックに明らかにする役にも立ちます。多くの他のMassively Parallel Processing (MPP)、EDW、クラウドデータウェアハウスのように、PK/FK製薬は情報を提供するためだけのものです。Databricksでは、PK/FKリレーションシップの矯正をサポートしていませんが、セマンティックデータモデルの設計を容易にするために定義することが可能です。 | データモデルを作成する際には、主キーと外部キーの定義をどのようにすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/19e1a02227e91f03121a | アイデンティティカラムは、データの新規の行のそれぞれにユニークなID番号を自動で生成するデータセット内のカラムです。通常これらはデータウェアハウスでサロゲートキーとして使用されます。サロゲートキーは、行のユニーク性を特定するために、自然な主キーや複数フィールドを結合したものに頼ることがない様に、システムが生成する無意味なキーです。通常、これらのサロゲートキーは、データウェアハウスで主キーや外部キーとして使用されます。 | アイデンティティカラムは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/19e1a02227e91f03121a | 主キーや外部キーの情報提供を目的とした制約に加え、Databricksではテーブルに追加されるデータの品質や統一性を保証するために強制される、カラムレベルのデータ品質チェック制約もサポートしています。これらの制約は自動で検証されます。これらの良い例はNOT NULL制約とカラム値の制約です。他のクラウドデータウェアハウスと異なり、特定のカラムのデータ品質を保証するために、カラム値チェックよりも先に進んだ機能を提供しています。以下に示している様に、valid_sales_amountチェック制約は、テーブルにデータを追加する前にすべての既存の行が制約(例: sales amount > 0)を満たしていることを検証します。詳細な情報はこちらから確認できます。 | データ品質のためのカラム制約のサポートを教えてください。 | closed_qa |
Subsets and Splits