使用数の削減:Reduction 。 使用量の削減(Reduce)の 取組み。 Reduceを 使用して、上記のコードを整理できます。Array.reduceを 使用して、上記のコードを整理できます。 Reduceと はゴミを減らすこと(排出削減)。
当然,这个清单的抽象形式是map-gt;reduce 。 上記のリストを概念で表すと、もちろんmap-gt;reduceになります 。 Map和reduce 并非必须强制某种特定类型的应用程序。 Mapとreduceで は、特定のタイプのアプリケーションしか使えないわけではありません。 在这里,我们使用了reduce 的最常见类型,它只使用2个参数。 ここでは、2つの引数だけを使用するreduceの 最も一般的なバリアントを使用しました。 Reduce ()接受迭代器返回的前两个元素A和B并计算func(A,B)。Reduce()は イテレータが返す最初の二要素AとBを取ってfunc(A, B)を計算します。 在本例中,传递给reduce 的函数是由(a,b)-gt;a+b指定的。 このサンプル・コードの場合、reduceに 渡す関数は(a, b)-gt;a+bと指定されています。 如果数组为空并且没有传递initial参数,array_reduce ()返回NULL。 配列が空でinitialが渡されなかった場合は、array_reduce()は NULLを返します。 不过,MongoDB确实为聚合大型数据集的应用提供了map/reduce 实现。 ただし、MongoDBでは大規模なデータ・セットを集約する際に使用できるように、map/reduceの 実装を用意しています。 这是因为如果没有初始值,那么reduce 将数组的第一个元素作为初始值,并从第二个元素开始迭代。 なぜなら、初期値が指定されていない場合、reduceは 配列の最初の要素を初期値とみなし、2つ目の要素から繰り返し処理を始めるためです。 在不到30行的脚本中,您已经在Hadoop框架内实现了map和reduce 元素并演示了它们的执行。 以上のように、30行に満たないスクリプトで、map要素とreduce 要素を実装し、Hadoopフレームワーク内でこれらのプロセスが実行される仕組みを説明しました。 与SQL操作类似,PigLatin也支持一流的map/reduce 函数及复杂的由用户定义的可扩展数据类型。 SQLに類似した操作と同様、PigLatinもまた、map/reduce 関数および複雑で拡張可能なユーザー定義のデータタイプを完全にサポートしています。 CouchDB中的Map/Reduce 特性生成键/值对,CouchDB将它们插入到B-树引擎中并根据它们的键进行排序。 CouchDBのMap/Reduce 関数によってキーと値のペアが生成され、CouchDBはそれらのペアをキーによるソート順でB木エンジンに挿入します。 余元说,“零浪费生活提倡6R原则,即Refuse,Reduce ,Reuse,Repair,Recycle,Rot。 余さんは、「ゼロ浪費生活では、6つのR(Refuse、Reduce 、Reuse、Repair、Recycle、Rot)という原則が提唱されている。 FoldLeft和reduce 是一个名为catamorphism的列表操作概念上的特定变体,该概念是列表折叠的一种泛化。 FoldLeftとreduceは 、リストの畳み込み操作を一般化したcatamorphismと呼ばれるリスト操作の概念に、ある特定の変形を加えたものです。 它是一种用于将数据拆分成较小数据集的逻辑,基于Map()和Reduce ()这两类函数运行,能够快速高效地解析数据。 データを小さなセットに分割するために使用されるロジックであり、データを高速かつ効率的に解析するMap()とReduce ()という2つの関数に基づいて動作します。 理解(reduce fa)的一种方式是,将其看作一个将列表中的所有cons替换为f,将所有nil替换为a的函数。 (reduce fa)を理解する一つの方法は、リストのなかで、consが出現するところをすべてfで置換え、nilが出現するところをすべてaで置換える関数だと看倣すことである。 HiveQL的功能超出标准SQL,支持一流的map/reduce 函数和Json与Thrift等复杂的由用户定义的可扩展数据类型。 HiveQLは標準的なSQLを超えるものであり、map/reduce 関数や、JSONやThriftといった複雑で拡張可能なユーザー定義のデータタイプを完全にサポートしています。 Map/Reduce 在关于Map/Reduce的最后部分中,我们将简单地了解Riak的Map/Reduce流化(streaming)特性。 Map/Reduce に関するセクションの 締めくくりとして、Riakに用意されているMap/Reduceのストリーミング機能について簡単に取り上げます。 正如上面所提到的,数据在Hadoop中以“作业”形式处理,这些作业是使用一个名为map/reduce 的范式、通过Java™编程语言编写的。 先ほど触れたように、データはHadoopの中で「ジョブ」の形式で処理され、ジョブはMap/Reduce と呼ばれる仕組みを使ってJava™プログラミング言語で作成されます。 在JavaScript1.8引入reduce (callback,initialValue)使用callback(firstValue,secondValue)把項目的列表合併成單一的值。 JavaScript1.8で導入reduce (callback[,initialValue])はアイテムのリストを単一の値に減らすために、callback(firstValue,secondValue)を適用します。 在后面您将会看到,它还包括一些函数编程结构,如Array.map与Array.reduce ,特别是用于解析和生成XML的E4X。 この後を読むとわかるとおり、そうしたJavaScriptの中には関数型プログラミングの構成体もいくつか含まれています(Array.mapやArray.reduce 、さらにはXMLの構文解析と生成のためのE4Xなど)。 联合国环境规划署将2013年世界环境日主题确定为“思前,食后,厉行节约-减少你的耗粮足迹(Think,Eat,Save.Reduce YourFoodprint)”。 UNEP(国際連合環境計画)とFAO(国際連合食糧農業機構)は、2013年環境デーの標語として、“Think,Eat,Save.Reduce yourFoodprint”を制定した。 此TS为所有标准库算法标准化并行和向量并行,还添加新算法,例如reduce 、transform_reduce 或exclusive_scan。 このTSはすべての標準ライブラリのアルゴリズムに対する並列化およびベクトル化APIを標準化し、reduce 、transform_reduce 、exclusive_scanといった新しいアルゴリズムを追加します。 如果您要只使用Hadoop来分析HDFS上存储的数据,那么通常需要开发人员的技术来使用Java语言和Hadoopmap/reduce API编写作业。 HDFSに保存されたデータに対してHadoop自体を使って分析を行う場合、通常は開発者のスキルが求められ、HadoopのMap/Reduce APIを使ってJava言語でジョブを作成する必要があります。 此TS为所有标准库算法标准化了并行和向量并行API,还添加了新算法,例如reduce 、transform_reduce 和exclusive_scan。 このTSはすべての標準ライブラリのアルゴリズムに対する並列化およびベクトル化APIを標準化し、reduce 、transform_reduce 、exclusive_scanといった新しいアルゴリズムを追加します。 启动给定内核的方法反映在同一ScriptC_filename类(其中包含名为forEach_mappingKernelName()或reduce _reductionKernelName()的方法)中。 指定されたカーネルを起動するメソッドは、forEach_mappingKernelName()またはreduce _reductionKernelName()という名前のメソッドで同じScriptC_filenameクラスに反映されます。
展示更多例子
结果: 88 ,
时间: 0.0265
日本語
English
Bahasa indonesia
عربى
Български
বাংলা
Český
Dansk
Deutsch
Ελληνικά
Español
Suomi
Français
עִברִית
हिंदी
Hrvatski
Magyar
Italiano
Қазақ
한국어
മലയാളം
मराठी
Bahasa malay
Nederlands
Norsk
Polski
Português
Română
Русский
Slovenský
Slovenski
Српски
Svenska
தமிழ்
తెలుగు
ไทย
Tagalog
Turkce
Українська
اردو
Tiếng việt