REDUCE 日语是什么意思 - 日语翻译

名词
reduce

在 中文 中使用 Reduce 的示例及其翻译为 日语

{-}
  • Ecclesiastic category close
  • Programming category close
  • Computer category close
减少使用:Reduce.
使用数の削減:Reduction
削减(Reduce)使用量的举措.
使用量の削減(Reduce)の取組み。
Reduce精简一下上面的代码:.
Reduceを使用して、上記のコードを整理できます。
也可以使用array.reduce整理上述代码.
Array.reduceを使用して、上記のコードを整理できます。
Reduce,是指削减垃圾(不造出无用的东西).
Reduceとはゴミを減らすこと(排出削減)。
当然,这个清单的抽象形式是map-gt;reduce
上記のリストを概念で表すと、もちろんmap-gt;reduceになります
Map和reduce并非必须强制某种特定类型的应用程序。
Mapとreduceでは、特定のタイプのアプリケーションしか使えないわけではありません。
在这里,我们使用了reduce的最常见类型,它只使用2个参数。
ここでは、2つの引数だけを使用するreduceの最も一般的なバリアントを使用しました。
Reduce()接受迭代器返回的前两个元素A和B并计算func(A,B)。
Reduce()はイテレータが返す最初の二要素AとBを取ってfunc(A, B)を計算します。
在本例中,传递给reduce的函数是由(a,b)-gt;a+b指定的。
このサンプル・コードの場合、reduceに渡す関数は(a, b)-gt;a+bと指定されています。
如果数组为空并且没有传递initial参数,array_reduce()返回NULL。
配列が空でinitialが渡されなかった場合は、array_reduce()はNULLを返します。
不过,MongoDB确实为聚合大型数据集的应用提供了map/reduce实现。
ただし、MongoDBでは大規模なデータ・セットを集約する際に使用できるように、map/reduceの実装を用意しています。
这是因为如果没有初始值,那么reduce将数组的第一个元素作为初始值,并从第二个元素开始迭代。
なぜなら、初期値が指定されていない場合、reduceは配列の最初の要素を初期値とみなし、2つ目の要素から繰り返し処理を始めるためです。
在不到30行的脚本中,您已经在Hadoop框架内实现了map和reduce元素并演示了它们的执行。
以上のように、30行に満たないスクリプトで、map要素とreduce要素を実装し、Hadoopフレームワーク内でこれらのプロセスが実行される仕組みを説明しました。
与SQL操作类似,PigLatin也支持一流的map/reduce函数及复杂的由用户定义的可扩展数据类型。
SQLに類似した操作と同様、PigLatinもまた、map/reduce関数および複雑で拡張可能なユーザー定義のデータタイプを完全にサポートしています。
CouchDB中的Map/Reduce特性生成键/值对,CouchDB将它们插入到B-树引擎中并根据它们的键进行排序。
CouchDBのMap/Reduce関数によってキーと値のペアが生成され、CouchDBはそれらのペアをキーによるソート順でB木エンジンに挿入します。
余元说,“零浪费生活提倡6R原则,即Refuse,Reduce,Reuse,Repair,Recycle,Rot。
余さんは、「ゼロ浪費生活では、6つのR(Refuse、Reduce、Reuse、Repair、Recycle、Rot)という原則が提唱されている。
FoldLeft和reduce是一个名为catamorphism的列表操作概念上的特定变体,该概念是列表折叠的一种泛化。
FoldLeftとreduceは、リストの畳み込み操作を一般化したcatamorphismと呼ばれるリスト操作の概念に、ある特定の変形を加えたものです。
它是一种用于将数据拆分成较小数据集的逻辑,基于Map()和Reduce()这两类函数运行,能够快速高效地解析数据。
データを小さなセットに分割するために使用されるロジックであり、データを高速かつ効率的に解析するMap()とReduce()という2つの関数に基づいて動作します。
理解(reducefa)的一种方式是,将其看作一个将列表中的所有cons替换为f,将所有nil替换为a的函数。
(reducefa)を理解する一つの方法は、リストのなかで、consが出現するところをすべてfで置換え、nilが出現するところをすべてaで置換える関数だと看倣すことである。
HiveQL的功能超出标准SQL,支持一流的map/reduce函数和Json与Thrift等复杂的由用户定义的可扩展数据类型。
HiveQLは標準的なSQLを超えるものであり、map/reduce関数や、JSONやThriftといった複雑で拡張可能なユーザー定義のデータタイプを完全にサポートしています。
Map/Reduce在关于Map/Reduce的最后部分中,我们将简单地了解Riak的Map/Reduce流化(streaming)特性。
Map/Reduceに関するセクション締めくくりとして、Riakに用意されているMap/Reduceのストリーミング機能について簡単に取り上げます。
正如上面所提到的,数据在Hadoop中以“作业”形式处理,这些作业是使用一个名为map/reduce的范式、通过Java™编程语言编写的。
先ほど触れたように、データはHadoopの中で「ジョブ」の形式で処理され、ジョブはMap/Reduceと呼ばれる仕組みを使ってJava™プログラミング言語で作成されます。
在JavaScript1.8引入reduce(callback,initialValue)使用callback(firstValue,secondValue)把項目的列表合併成單一的值。
JavaScript1.8で導入reduce(callback[,initialValue])はアイテムのリストを単一の値に減らすために、callback(firstValue,secondValue)を適用します。
在后面您将会看到,它还包括一些函数编程结构,如Array.map与Array.reduce,特别是用于解析和生成XML的E4X。
この後を読むとわかるとおり、そうしたJavaScriptの中には関数型プログラミングの構成体もいくつか含まれています(Array.mapやArray.reduce、さらにはXMLの構文解析と生成のためのE4Xなど)。
联合国环境规划署将2013年世界环境日主题确定为“思前,食后,厉行节约-减少你的耗粮足迹(Think,Eat,Save.ReduceYourFoodprint)”。
UNEP(国際連合環境計画)とFAO(国際連合食糧農業機構)は、2013年環境デーの標語として、“Think,Eat,Save.ReduceyourFoodprint”を制定した。
此TS为所有标准库算法标准化并行和向量并行,还添加新算法,例如reduce、transform_reduce或exclusive_scan。
このTSはすべての標準ライブラリのアルゴリズムに対する並列化およびベクトル化APIを標準化し、reduce、transform_reduce、exclusive_scanといった新しいアルゴリズムを追加します。
如果您要只使用Hadoop来分析HDFS上存储的数据,那么通常需要开发人员的技术来使用Java语言和Hadoopmap/reduceAPI编写作业。
HDFSに保存されたデータに対してHadoop自体を使って分析を行う場合、通常は開発者のスキルが求められ、HadoopのMap/ReduceAPIを使ってJava言語でジョブを作成する必要があります。
此TS为所有标准库算法标准化了并行和向量并行API,还添加了新算法,例如reduce、transform_reduce和exclusive_scan。
このTSはすべての標準ライブラリのアルゴリズムに対する並列化およびベクトル化APIを標準化し、reduce、transform_reduce、exclusive_scanといった新しいアルゴリズムを追加します。
启动给定内核的方法反映在同一ScriptC_filename类(其中包含名为forEach_mappingKernelName()或reduce_reductionKernelName()的方法)中。
指定されたカーネルを起動するメソッドは、forEach_mappingKernelName()またはreduce_reductionKernelName()という名前のメソッドで同じScriptC_filenameクラスに反映されます。
结果: 88, 时间: 0.0265

Reduce 用不同的语言

顶级字典查询

中文 - 日语