Translation of "logistic regression model" to Japanese language:


  Dictionary English-Japanese

Logistic - translation : Logistic regression model - translation : Model - translation : Regression - translation :

  Examples (External sources, not reviewed)

logistic regression.
y 1の時と
logistic regression.
それは前回はマイナスの符号を
logistic regression with a
適用していく というのが考えられる
Let's start talking about logistic regression.
このビデオでは
light of logistic regression, the Support
このコスト関数を最小化する
logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression.
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは
For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows .
これは線形回帰より複雑なモデルで fをxの線形関数とすると
So, for logistic regression, we had two terms to our objective function.
一つ目の項は トレーニングセットから来る
We already have linear regression and we have logistic regression, so why do we need, you know, neural networks?
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を
Now let's think about what we will like the logistic regression to do.
手本があって y 1とする
Could we use Naive Bayes, k Nearest Neighbors, Support Vector Machines, Logistic Regression.
またUNIXのsortコマンドやgzipコマンドは 使えるでしょうか
We're going to model a neuron as just a logistic unit.
だから黄色で円を
logistic regression, I'm going to modify this a little bit, and make the hypothesis
これをちょっと変更して 仮説をgの シータ転置 x と する ここでgは
Logistic Regression is actually a classification algorithm that we apply to settings where the
分類アルゴリズムで Yが離散的な値の時に 使う物だ 1 0とか0 1とか
How about if we were doing a classification problem and say using logistic regression instead.
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの
A plus B. So for logistic regression if we send a very large value of
とても大きなラムダの値を用いると それの意味する所はBに とても大きな重みを付与する という事だ
So, simple logistic regression together with adding in maybe the quadratic or the cubic features
2次や 3次のフィーチャーを 加えたもの これは n が大きい時に
In the next video we'll start working out the details of the logistic regression algorithm.
ロジスティック回帰のアルゴリズムの 詳細を見ていきます
That's the term that a single training example contributes to the overall objective function for logistic regression.
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに
If you want to apply logistic regression to this problem, one thing you could do is apply
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰
So, here's a simple regression equation, or, a simple path model.
ここのトップを見ると これはただの単回帰
And that's called the support vector machine, and compared to both the logistic regression and neural networks, the
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン
line similar to logistic regression but this is going to be the straight line in this posh inning.
直線 つまり マゼンタで今描いた 曲線 紫というかマゼンダで描いた曲線
Where instead of having basically just one logistic regression output unit, we may instead have K of them.
単に一つのロジスティック回帰の出力ユニットしか無いのではなく その代わりにK個のユニットがある訳だ これがそのコスト関数となる
And finally, the second term here is the regularization term similar to what we had for logistic regression.
正規化の項 これはロジスティック回帰と似てるね この和の項はほんとうに難しそうに見えるね
So you'll see that the regression model is really just the equation.
次に回帰係数の見積りの考えについて話します
So, that whole regression equation is represented in this simple path model.
これは人々が何十年も使い続けている標準化されたノーテーションだ
Let F of XP, or linear function, and the output of logistic regression is obtained by the following function
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x.
全ての価格を一つの変数 x で予測するものです そして
Up to this point, I've been saying that one regression equation is one model.
一つのモデルと言ってきた この構造的方程式モデリングのフィールドに移動すると
We'll develop an algorithm called logistic regression, which is one of the most popular and most widely used learning algorithms today.
アルゴリズムを開発していきます それはこんにち 機械学習の分野では もっともポピュラーで もっとも広く使われているアルゴリズムの一つです
And the term logistic function, that's what give rise to the name logistic progression.
ロジスティック回帰の語源でもある ところで sigmod関数と
So, in logistic regression we have our familiar form of the hypotheses there and the sigmoid activation function shown on the right.
これで そしてsigmoidアクティベーション関数が 右に示してある そして数学をいくつか
like we had for logistic progression.
具体的には i 0に
Clearly a linear regression model is a very poor one to explain this data over here.
線形回帰の別の問題は
Just two simple regressions and model three is the multiple regression with both predictors in there.
2つの予測変数を入れた重回帰 そうするとモデルの比較が出来る 予測変数を追加して一つのモデル
That's the way to interpret the regression coefficients when there are multiple predictors in the model.
回帰係数の解釈の仕方 この最後の部分で私がやりたいのは
linear regression.
元通りの線形回帰の目的関数に戻します
The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression.
コスト関数は ロジスティック回帰で使った物を 一般化した物だ
Now, this didn't really come up much in simple regression because the model was just one predictor.
一つの予測変数しか持ってないから 方程式の中に回帰係数は一つしか無い
And this data set happens to be fittable by a linear regression model without any residual error.
数学的計算をせずw₀とw₁の値を求めてください
The regression equation is just the model. You'll see that our, our models will get more complex.
もっと複雑になっていくのを見る事になるでしょう 複数の予測変数 因子 を持つ事になります
So, it's a pretty close approximation to the cost function used by logistic regression except that it is now made out of two line segments.
極めて近い近似となっている 2つの線分から 構成されている所が違うが
The second bit of notational change, we're just designating the most standard convention, when using as the SVM, instead of logistic regression as a following.
SVMを使う時に もっとも一般的なコンベンションだが それは以下のような物だ ロジスティック回帰の時は
The other thing I eluded to last lecture, and we didn't really get into simple regression is this idea when model R and model R squared.
そしてこれは単回帰では問題にならないのですが それはモデルRとモデルR 2の 概念です これについては 帰無仮説有意検定の代替案の話で 効果量を推計する時に触れました

 

Related searches : Logistic Regression - Regression Model - Logistic Model - Stepwise Logistic Regression - Ordinal Logistic Regression - Binary Logistic Regression - Conditional Logistic Regression - Multiple Logistic Regression - Poisson Regression Model - Cox Regression Model - Linear Regression Model - Multiple Regression Model - Multivariate Regression Model