Translation of "stepwise logistic regression" to Japanese language:
Dictionary English-Japanese
Logistic - translation : Regression - translation : Stepwise - translation : Stepwise logistic regression - translation :
Examples (External sources, not reviewed)
logistic regression. | y 1の時と |
logistic regression. | それは前回はマイナスの符号を |
logistic regression with a | 適用していく というのが考えられる |
Let's start talking about logistic regression. | このビデオでは |
light of logistic regression, the Support | このコスト関数を最小化する |
logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression. | ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは |
So, for logistic regression, we had two terms to our objective function. | 一つ目の項は トレーニングセットから来る |
We already have linear regression and we have logistic regression, so why do we need, you know, neural networks? | ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を |
Now let's think about what we will like the logistic regression to do. | 手本があって y 1とする |
Could we use Naive Bayes, k Nearest Neighbors, Support Vector Machines, Logistic Regression. | またUNIXのsortコマンドやgzipコマンドは 使えるでしょうか |
logistic regression, I'm going to modify this a little bit, and make the hypothesis | これをちょっと変更して 仮説をgの シータ転置 x と する ここでgは |
Logistic Regression is actually a classification algorithm that we apply to settings where the | 分類アルゴリズムで Yが離散的な値の時に 使う物だ 1 0とか0 1とか |
How about if we were doing a classification problem and say using logistic regression instead. | 代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの |
A plus B. So for logistic regression if we send a very large value of | とても大きなラムダの値を用いると それの意味する所はBに とても大きな重みを付与する という事だ |
So, simple logistic regression together with adding in maybe the quadratic or the cubic features | 2次や 3次のフィーチャーを 加えたもの これは n が大きい時に |
In the next video we'll start working out the details of the logistic regression algorithm. | ロジスティック回帰のアルゴリズムの 詳細を見ていきます |
For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows . | これは線形回帰より複雑なモデルで fをxの線形関数とすると |
That's the term that a single training example contributes to the overall objective function for logistic regression. | ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに |
If you want to apply logistic regression to this problem, one thing you could do is apply | 適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を |
And that's called the support vector machine, and compared to both the logistic regression and neural networks, the | ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン |
line similar to logistic regression but this is going to be the straight line in this posh inning. | 直線 つまり マゼンタで今描いた 曲線 紫というかマゼンダで描いた曲線 |
Where instead of having basically just one logistic regression output unit, we may instead have K of them. | 単に一つのロジスティック回帰の出力ユニットしか無いのではなく その代わりにK個のユニットがある訳だ これがそのコスト関数となる |
And finally, the second term here is the regularization term similar to what we had for logistic regression. | 正規化の項 これはロジスティック回帰と似てるね この和の項はほんとうに難しそうに見えるね |
Let F of XP, or linear function, and the output of logistic regression is obtained by the following function | ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります |
Whether you run it standard, or sequential, or stepwise, or whatever. | 予測変数同士が相関が無ければ それらは互いに直行していたら |
We'll develop an algorithm called logistic regression, which is one of the most popular and most widely used learning algorithms today. | アルゴリズムを開発していきます それはこんにち 機械学習の分野では もっともポピュラーで もっとも広く使われているアルゴリズムの一つです |
And the term logistic function, that's what give rise to the name logistic progression. | ロジスティック回帰の語源でもある ところで sigmod関数と |
So, in logistic regression we have our familiar form of the hypotheses there and the sigmoid activation function shown on the right. | これで そしてsigmoidアクティベーション関数が 右に示してある そして数学をいくつか |
like we had for logistic progression. | 具体的には i 0に |
linear regression. | 元通りの線形回帰の目的関数に戻します |
The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. | コスト関数は ロジスティック回帰で使った物を 一般化した物だ |
So, it's a pretty close approximation to the cost function used by logistic regression except that it is now made out of two line segments. | 極めて近い近似となっている 2つの線分から 構成されている所が違うが |
The second bit of notational change, we're just designating the most standard convention, when using as the SVM, instead of logistic regression as a following. | SVMを使う時に もっとも一般的なコンベンションだが それは以下のような物だ ロジスティック回帰の時は |
Regression testing output | 回帰テストの出力 |
Regression Testing Status | 回帰テストの状態 |
Regression is continuous. | 気温は66 5度 という予想などです |
It's the same objective function as we always use but we just logistic regression, except that now is define using our m subscript test, test examples. | 同じ目的関数だ 違いは m下付き添字test に対して 定義されている つまりテストセットに対して |
K equals one through four of basically the logistic regression algorithms cost function but summing that cost function over each of my four output units in turn. | コスト関数なんだが しかしそのコスト関数を 4つの出力ユニット分を一つずつ |
Regression tester for kate | Kate のための回帰テスター |
KHTML Regression Testing Utility | KHTML 回帰テストユーティリティ |
Regression tester for khtml | khtml のための回帰テスター |
So, that's linear regression. | ビデオでは このモデルをどのように実装していくかをお話します |
Z, also called the logistic function, looks like this. | ゼロのそばから始まって |
If you look at the cost function of logistic regression, what you find is that each example x, y, contributes a term like this to the overall cost function. | 見られる結果は 各手本 x yが このような項として |
And what's new is doing multiple regression analysis, asking for standardized regression coefficients. | そうコメントにもある 回帰分析をやって |
Related searches : Stepwise Regression - Logistic Regression - Stepwise Linear Regression - Ordinal Logistic Regression - Logistic Regression Model - Binary Logistic Regression - Conditional Logistic Regression - Multiple Logistic Regression - Stepwise Approach - Stepwise Process - Stepwise Manner - Stepwise Procedure - Stepwise Increase