SIGMOID Tiếng anh là gì - trong Tiếng anh Dịch S

Ví dụ về việc sử dụng Sigmoid trong Tiếng việt và bản dịch của chúng sang Tiếng anh

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Hình 9: Đôồ thị sigmoid function.
Figure 1: Sigmoid functions.
Activation function được sử dụng là sigmoid.
Sigmoid activation function has been used.
Được gọi là hàm sigmoid hay đường cong sigmoid.
Is called sigmoid function or sigmoid curve.
Kiểm tra sigmoid và trực tràng bằng soi đại tràng sigma.
Sigmoid and rectum can be examined with the help of sigmoidoscopy.
Bước tiếp theo là tính toán đầu ra( A) là sigmoid của Z.
The next step is to calculate the output(A) which is the sigmoid of Z.
Chúng ta sử dụng đường cong Sigmoid để tính output of the neuron.
We used the Sigmoid curve to calculate the output of the neuron.
Trong đó g( z)được gọi là logistic function hay sigmoid function.
This function g is known as"sigmoid function", or"logistic function".
Tiến trình này đượcthực hiện thông qua một sigmoid layer gọi là“ forget gate layer”- cánh cổng quên lãng.
This decision is made by a sigmoid layer called the“forget gate layer”.
Có một số hàm activation function có thể kể đến như Sigmoid, Softmax, ReLU.
There can be other activation functions like Tanh, softmax and RELU.
Proctosigmoiditis ảnh hưởng đến trực tràng và đại tràng sigmoid, là phân đoạn thấp nhất của đại tràng gần trực tràng.
Proctosigmoiditis affects the rectum and sigmoid colon, which is the lowest segment of the colon close to the rectum.
Phần thứ tư được gọi là đại tràng sigmoid vì hình dạng“ S” của nó.
The fourth section is known as the sigmoid colon because of its“S” shape.
Chúng ta có thể sử dụng hàm kích hoạt nào khác ngoài Sigmoid?
What other activation function can we use besides the Sigmoid function?
Có nhiều hàm activation function như tanh, sigmoid function, hay ReLUs.
Common choices for activation functions are tanh, the sigmoid function, or ReLUs.
Cuối cùng, chúng ta nhân với gradient( độ dốc) của đường cong Sigmoid( Hình 4).
Finally, we multiply by the gradient of the Sigmoid curve(Diagram 4).
Thông thường, các túi này phát triển trong đại tràng sigmoid, nằm ở phía bên trái của bụng.
Most commonly, these pouches develop in the sigmoid colon located on the left side of the abdomen.
Để giải quyết vấn đề ở trên,người ta đưa ra một loại neuron gọi là Sigmoid Neuron.
This problem can beovercome by another type of artificial neuron called a sigmoid neuron.
Viêm thường bắt đầu vào trực tràng và thấp hơn( sigmoid) ruột và lây lan lên đến toàn bộ đại tràng.
The inflammation typically begins in the rectum and lower(sigmoid) intestine and spreads upward to the entire colon.
Để giải quyết vấn đề ở trên,người ta đưa ra một loại neuron gọi là Sigmoid Neuron.
We can overcome this problem by introducing anew type of artificial neuron called a sigmoid neuron.
Sau đó,một phần đại tràng hình chữ S hoặc sigmoid của ruột già nối phần còn lại của đại tràng với trực tràng, kết thúc ở hậu môn.
Then an S shaped or sigmoid colon portion of the large intestine connects the rest of the colon to the rectum, which ends at the anus.
Vì vậy, nếu z rất lớn, exp(- z) sẽ tiến tới 0và do đó, đầu ra của sigmoid sẽ là 1.
So, if z is very large, exp(-z) will be close to 0,and therefore the output of the sigmoid will be 1.
Ở lớp cuối cùng, chúng ta tính f( A^( L- 1))có thể là hàm sigmoid, softmax hoặc tuyến tính của A^( L- 1) và điều này đưa ra dự đoán y hat.
At the final layer,we compute f(A^(L-1))which could be a sigmoid, softmax or linear function of A^(L-1) and this gives the prediction y_hat.
Tương tự, nếu z rất nhỏ, exp(- z)sẽ ra vô cùng và do đó đầu ra của sigmoid sẽ là 0.
Similarly, if z is very small, exp(-z)will be infinity and hence the output of the sigmoid will be 0.
Ban đầu, chúng tôiđã thử sử dụng thuật toán kích hoạt Rectified vì thuật toán sigmoid là một phương pháp chỉ mục có thể dễ dàng đưa ra vấn đề mất độ dốc.
In the beginning,we tried to use a Rectified activation algorithm since the sigmoid algorithm is an index method which can easily bring about the issue of gradient loss.
Nếu chúng ta khởi tạo trọng lượng lớn, Z sẽ lớn, hàm kích hoạt sẽ ra số lớn ra cực, dẫn đến độ dốc bằng không(trong trường hợp chức năng kích hoạt sigmoid và tanh).
If we initialize large weights, the activation will be large,resulting in zero slope(in case of sigmoid and tanh activation function).
Cụ thể hơn, trong trường hợp sigmoid( z) và tanh( z), nếu trọng lượng của bạn lớn, thì độ dốc sẽ biến mất nhỏ, ngăn chặn hiệu quả trọng lượng thay đổi giá trị của chúng.
More specifically, in case of sigmoid(z) and tanh(z), if your weights are large, then the gradient will be vanishingly small, effectively preventing the weights from changing their value.
Thuật toán kích hoạt trong mô hình cảm biến có thể là thuật toán ngắt hoặcthuật toán sigmoid và đầu vào của nó có thể là một vectơ số thực thay vì các vectơ nhị phân được sử dụng bởi mô hình nơron.
The activation algorithm in a sensor modelcan be either a break algorithm or a sigmoid algorithm, and its input can be a real number vector instead of the binary vectors used by the neuron model.
Hàm Sigmoid được biểu thị là một đường cong chữ S có thể lấy bất kỳ số có giá trị thực nào và ánh xạ nó thành một giá trị giữa phạm vi 0 và 1, nhưng không bao giờ chính xác ở các giới hạn đó.
The Sigmoid-Function is an S-shaped curve that can take any real-valued number and map it into a value between the range of 0 and 1, but never exactly at those limits.
Khi xk được chuyển từ lớp đầu vào sang vkj có trọng số trên lớp ẩn và sau đó được chuyển quamột thuật toán kích hoạt như sigmoid, sau đó chúng ta có thể lấy giá trị hj tương ứng từ lớp ẩn.
When xk is transferred from the input layer to the weighted vkj on the hidden layer andthen passed through an activation algorithm like sigmoid, then we can retrieve the corresponding value hj from the hidden layer.
Một ví dụ đơn giản về mất độ dốc, ví dụ, sẽ là nơi mỗi lớp trong mạng lưới thần kinh là một lớp cấu trúc sigmoid, do đó sự mất mát của nó trong quá trình truyền ngược được nối thành một dải sigmoid.
A simple example of gradient loss, for example, would be where each layer in a neural network is a sigmoid structure layer, therefore its loss during back-propagation is chained into a sigmoid gradient.
Kết quả: 29, Thời gian: 0.0179
S

Từ đồng nghĩa của Sigmoid

Truy vấn từ điển hàng đầu

Tiếng việt - Tiếng anh