What is the translation of " GRADIENT DESCENT " in English?

gradient descent
unintelligible
chuyển màu gốc
giảm độ dốc

Examples of using Gradient descent in Vietnamese and their translations into English

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Những gì gradient descent sẽ.
What gradient descent will do, is it will update.
Phương pháp này được gọi là gradient descent.
This method is called batch gradient descent.
Các bước gradient descent có thể được tóm tắt là.
The gradient descent steps can be summarized as.
Để cập nhật trọng số w i j{\ displaystyle w{ ij}}sử dụng gradient descent, ta phải chọn một tốc độ học, α{\ displaystyle\ alpha}.
To update the weight w i j{\displaystyle w_{ij}}using gradient descent, one must choose a learning rate, α{\displaystyle\alpha}.
Vì vậy, trong gradient descent, bạn biết, khi tính toán cụ phái sinh, chúng tôi đang tính toán những khoản tiền, số tiền này của.
So, in gradient descent, you know, when computing derivatives, we're computing these sums, this sum of.
Combinations with other parts of speech
Usage with nouns
Dưới đây là các thuật toán gradient descent mà chúng tôi thấy thời gian qua.
Here's the gradient descent algorithm that we saw last time.
Gradient Descent trong bài toán này thường được gọi là Batch Gradient Descent, vì nó tính tổng của tất cả các giá trị.
The gradient descent algorithm used so far is called batch gradientdescent, because it runs on the entire data set.
Mạng nơ- ron được đào tạo bằng cách sử dụng Stochastic Gradient Descent( SGD) và thuật toán backpropagation( cả hai được hiển thị trong GIF ở trên).
Neural Networks are trained using Stochastic Gradient Descent(SGD) and the backpropagation algorithm(both displayed in the GIF above).
Nhưng thuật ngữ lô gradient descent có nghĩa là đề cập đến các thực tế rằng, trong mỗi bước của gradient descent, chúng tôi đang tìm ở tất cả các ví dụ huấn luyện.
But the term batch gradient descent means that refers to the fact that, in every step of gradient descent we're looking at all of the training examples.
Và nếu bạn bắt đầu nó chỉ là một vài bước ở bên phải, gradient descent sẽ có sự bạn để này thứ hai địa phương tối ưu trên bên phải.
And if you start it just a couple steps to the right, the gradient descent will have taken you to this second local optimum over on the right.
Bây giờ, để áp dụng Gradient descent, theo thứ tự để viết này mảnh Mã, thuật ngữ quan trọng chúng ta cần là khâu này trên đây.
Now, in order to apply gradient descent, in order to write this piece of code, the key term we need is this derivative term over here.
Sau đó trong khóa học này, chúng tôi sẽ nói về phương pháp đó là Vâng đó chỉ giải quyết cho các chức năng của chi phí tối thiểu, J,mà không có cần sửa nhiều bước của gradient descent.
Later in this course we will talk about that method as well that just solves for the minimum costfunction J without needing this multiple steps of gradient descent.
Nếu tôi đi một bước của gradient descent, bạn biết, có thể có tôi sẽ đưa tôi đến đó điểm cuz của tôi dẫn xuất khá dốc lên đó ngay?
If I take one step of gradient descent you know, maybe it will take me to that point cuz my derivative's pretty steep out there, right?
Chúng ta hãy nghiên cứu kỹ sâu hơn, và trong video này, có được trực giác tốt hơn về những gì các thuật toán thực hiện,và tại sao các bước của thuật toán gradient descent có thể làm cho ý thức.
Let's delve deeper, and in this video, get better intuition about what the algorithm is doing,and why the steps of the gradient descent algorithm might make sense.
Bây giờ nếu chúng tôi lấy một bước của gradient descent, chúng tôi sẽ lên đi từ thời điểm này ra ở đây, một chút chút xuống bên trái đến thời điểm thứ hai trên đó.
Now if we take one step of gradient descent, we end up going from this point out here, a little bit to the down left to that second point over there.
Các kĩ thuật khác nhau có thể được sử dụng để tìm mô hình hồi quy tuyến tính từ dữ liệu, chẳng hạn như một giải phápđại số tuyến tính cho Ordinary least square và việc tối ưu hóa Gradient descent.
Different techniques can be used to learn the linear regression model from data, such as a linearalgebra solution for ordinary least squares and gradient descent optimization.
Trong video trước đó, chúng tôi nói chuyện về các thuật toán gradient descent và nói chuyện về các tuyến tính hồi quy mô hình và chức năng bình phương lỗi chi phí.
In previous videos, we talked about the gradient descent algorithm and talked about the linear regression model and the squared error cost function.
Vì vậy, ở đây là gradient descent, hoặc hồi qui sẽ lặp lại cho đến khi hội tụ, theta 0 và theta ai nhận được Cập Nhật như, bạn đã biết, giống trừ alpha lần khâu.
So here's gradient descent, or the regression, which is going to repeat until convergence, theta 0 and theta one get updated as, you know, the same minus alpha times the derivative term.
Nhưng bây giờ, bằng cách sử dụng các thuật toán bạn chỉ biết được,bây giờ chúng tôi sử dụng lô gradient descent, bạn bây giờ biết làm thế nào để thực hiện Gradient descent, hay hồi quy tuyến tính.
But for now, using the algorithm you just learned,now we're using batch gradient descent, you now know how to implement gradient descent, or linear regression.
Trong video này, chúng tôi sẽ đặt cùng gradient descent với chức năng chi phí của chúng tôi, và rằng sẽ cung cấp cho chúng tôi một thuật toán hồi quy tuyến tính cho lắp một đường thẳng vào dữ liệu của chúng tôi.
In this video, we're going to put together gradient descent with our cost function, and that will give us an algorithm for linear regression for fitting a straight line to our data.
Nếu tất cả các nốt trong đồ thị có phân phối mũ and tất cả đều được quan sát trong quá trình trainning, hàm tối ưu là hàm lồi.[ 6]Có thể giải bằng thuật toán gradient descent hoặc Quasi- Newton methods như là thuật toán L- BFGS.
If all nodes have exponential family distributions and all nodes are observed during training, this optimization is convex.[6]It can be solved for example using gradient descent algorithms, or Quasi-Newton methods such as the L-BFGS algorithm.
Anh ta có thể sử dụng phương pháp gradient descent, bao gồm việc nhìn vào độ dốc của ngọn đồi tại vị trí hiện tại của mình, sau đó di chuyển theo hướng dốc nhất đi xuống( cụ thể là xuống dốc).
He can use the method of gradient descent, which involves looking at the steepness of the hill at his current position, then proceeding in the direction with the steepest descent(i.e. downhill).
Nhưng trước khi đó tôi đầu tiên muốn nói với bạn trong tập tiếp theo của video,các trước tiên, muốn cho bạn biết về một tổng quát của gradient descent thuật toán mà sẽ làm cho nó mạnh hơn nhiều và tôi đoán tôi sẽ cho bạn biết về điều đó trong video tiếp theo.
But before that I first want to tell you in the next set of videos,the first want to tell you about a generalization of the gradient descent algorithm that will make it much more powerful and I guess I will tell you about that in the next video.
Điều này mở rộng khi gradient descent tối ưu hóa bằng cách sử dụng đà để tăng tốc quá trình thông qua các máy tính trung bình theo cấp số nhân trọng các gradient và sử dụng mà ở những điều chỉnh.
This extends upon gradient descent optimization by using momentum to speed up the process through computing an exponentially weighted average of the gradients and using that in the adjustments.
Và chỉ cần như một lời nhắc nhở nhanh chóng, bạn phải, khi thực hiện gradient descent, có thực sự có là chi tiết, bạn biết, bạn nên thực hiện nó để Cập Nhật theta zero và theta một trong cùng một lúc.
And just as a quick reminder, you must, when implementing gradient descent, there's actually there's detail that, you know, you should be implementing it so the update theta zero and theta one simultaneously.
Và làm gradient descent ngày loại chi phí hoạt động mà bạn nhận được bất cứ khi nào bạn đang sử dụng tuyến tính hồi qui, nó sẽ luôn luôn chuyển đổi để tối ưu toàn cầu, vì không có không có khác optima địa phương khác hơn tối ưu toàn cầu.
And thus gradient descent on this type of cost function which you get whenever you're using linear regression, it will always convert to the global optimum, because there are no other local optima other than global optimum.
Cố gắng đừng chỉ đơn thuần sử dụng API cho Spark MLlib hay XGBoost và kết thúc mọi chuyện mà cònphải hiểu tại sao stochastic gradient descent( SGD) lại phù hợp với đào tạo phân phối hay hiểu cách mà XGBoost khác với GBDT truyền thống, chẳng hạn, điều đặc biệt về hàm mất mát( loss function), tại sao nó cần để tính toán đạo hàm bậc hai….
Try not to merely using the API for Spark MLlib or XGBoost and calling it done,but try to understand why stochastic gradient descent is appropriate for distributed training, or understand how XGBoost differs from traditional GBDT, e.g. what is special about its loss function, why it needs to compute the second order derivative.
Và như tôi nghĩ thêm bước là gradient descent, tôi sẽ xuống trong chi phí, bên phải, như vậy tham số của tôi là sau quỹ đạo này, và nếu bạn nhìn vào bên trái, điều này tương ứng để giả thuyết có vẻ để nhận tốt hơn và tốt hơn phù hợp cho các dữ liệu cho đến khi cuối cùng.
And as I think further step is gradient descent, I'm going down in cost, right, so my parameter is following this trajectory, and if you look on the left, this corresponds to hypotheses that seem to be getting to be better and better fits for the data until eventually.
Do truyền ngược sử dụng phương pháp gradient descent, ta cần phải tính đạo hàm của hàm sai số bình phương với các trọng số của mạng. Giả sử có một nơ- ron đầu ra,[ note 2] hàm sai số bình phương sẽ là.
Since backpropagation uses the gradient descent method, one needs to calculate the derivative of the squared error function with respect to the weights of the network. Assuming one output neuron,[note 2] the squared error function is.
Và nó chỉ racó đôi khi các phiên bản Gradient descent không Quay lại các phiên bản, nhưng thay vào đó làm không xem xét toàn bộ thương mại nhưng xem xét tập con nhỏ bộ đào tạo lúc đó, và chúng tôi sẽ nói về những phiên bản sau này trong khóa học này là tốt.
And it turns out there are sometimes other versions of gradient descent that are not batch versions but instead do not look at the entire traning set but look at small subsets of the training sets at the time, and we will talk about those versions later in this course as well.
Results: 76, Time: 0.0188

Word-for-word translation

Top dictionary queries

Vietnamese - English