하둡 (hadub) Meaning in English - translations and usage examples S

Noun
hadoop
하둡
hadoop은
hadoop을

Examples of using 하둡 in Korean and their translations into English

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Ecclesiastic category close
  • Programming category close
  • Computer category close
아파치 하둡.
Apache Hadoop.
하둡용 몽고DB 커넥터는 하둡.
The MongoDB Connector for Hadoop.
Amazon EMR호스팅 하둡 프레임워크.
Amazon EMRHosted Hadoop Framework.
하둡용 몽고 DB 커넥터.
MongoDB Certifies Mongo DB Connector for Hadoop.
가장 흔해빠진 7가지 하둡 및 스파크 프로젝트.
The 7 most common Hadoop and Spark projects.
포괄적인 빅 데이터 솔루션으로 하둡 문제 완화 |.
Comprehensive Big Data solutions that ease Hadoop headaches|.
하둡 데이터 통합, 데이터 거버넌스 및 데이터 보안.
Data integration, data governance, and data security on Hadoop.
코어 노드는 DataNodes 및 TaskTracker 하둡 데몬을 모두 실행합니다.
Core nodes run both the DataNodes and TaskTracker Hadoop daemons.
Sahara는 하둡 클러스터를 쉽고 빠르게 제공하기 위한 구성 요소이다.
Sahara is a component to easily and rapidly provision Hadoop clusters.
버추얼 박스에서 학습 및 테스트를 위해 하둡 환경을위한 자습서.
Tutorial for setting up a Hadoop environment for learning and testing in VirtualBox.
페이스북의 데이터팀은 하둡 프로젝트를 위한 프로그램을 개발하기 위해 하이브(Hive)라는 언어를 만들었다.
Facebook's data team created the language Hive for programming Hadoop projects.
이 자습서를 사용하면 가상 머신을 사용하여 자신의 하둡 환경을 설정할 수 있습니다.
With this tutorial you can set up your own Hadoop environment using virtual machines.
하둡 분산 파일 시스템: 구조와 설계(The Hadoop Distributed File System: Architecture and Design).
The hadoop distributed? le system: Architecture and design.
Big Data Management Editions 하둡 데이터 통합, 데이터 거버넌스 및 데이터 보안.
Big Data Management Data integration, data governance, and data security on Hadoop.
하둡의 스토리지와 자동화된 데이터 처리를 기존 데이터 인프라에 원활하게 추가.
Seamless addition of automated data processing and storage on Hadoop to your existing data infrastructure.
보호해야 하는 민감한 데이터와 같이, 하둡에서의 데이터 도메인 및 관계 검색을 자동화.
Automate the discovery of data domains and relationships on Hadoop such as sensitive data that needs to be protected.
하둡용 몽고DB 커넥터는 하둡 환경에서 몽고DB데이터의 양방향 접근을 지원한다.
The MongoDB Connector for Hadoop provides bi-directional access to MongoDB data in a Hadoop environment.
Big Data Management Editions 하둡 데이터 통합, 데이터 거버넌스 및 데이터 보안.
Big Data Management Achieve faster, more flexible, and more repeatable data integration, governance, and security on Hadoop.
아파치 하둡을위한 스프링 하둡 구성 요소와 응용 프로그램 구축을 지원하는 프레임 워크입니다….
Spring for Apache Hadoop is the framework to support application building with Hadoop components….
고성능 연결 및 동적 매핑을 사용하여 소스 시스템, 하둡 및 타겟 애플리케이션 간에 데이터를 이동할 수 있습니다.
Move data among source systems, Hadoop, and target applications using high-performance connectivity and dynamic mappings.
하둡 프로젝트를 처음부터 시작할 때의 가장 큰 어려움 중 하나는 데이터를 클러스터로 로드하는 것입니다.
One of the biggest challenges getting a Hadoop project off the ground is loading data into a cluster.
데이터 형식 또는 크기에 상관없이, 하둡 클러스터의 토폴로지에 따라 확장되는 파싱 변환 처리.
Elastic scaling Process parsing transformations regardless of data format or size that scale with the topology of the Hadoop cluster.
세 곳의 주요 하둡 업체와 (특히 ‘빅 블루'를 포함한) 소위 “뭐든지 다 하는” 거대 업체들도 이 게임에 참가하고 있다.
Three major Hadoop vendors along with big“do everything companies”(especially the Big Blue one) are in this game.
Informatica Data Integration Hub 10.1 은 기업 내,클라우드 및 하둡 환경 전반에서 최신 하이브리드 아키텍처를 지원한다.
Informatica Data Integration Hub 10.1supports modern hybrid architectures across on-premise, cloud and Hadoop environments.
조직들은 하둡 클러스터에 덜 사용된 데이터를 오프로드하여 스토리지 비용을 낮추고 비즈니스 요구 사항을 충족하는 더 많은 데이터를 사용할 수 있습니다.
Organizations are offloading less-used data to Hadoop clusters to decrease storage costs and make more data available to meet business demands.Â.
태그 호튼 웍스 IBMPartners IBMPowerSystems PowerAI @bobfriske 인지 컴퓨팅 하둡 호튼 웍스 데이터 플랫폼 OpenPOWER.
Tags Hortonworks IBMPartners IBMPowerSystems PowerAI@bobfriske cognitive computing Hadoop Hortonworks Data Platform OpenPOWER.
하둡용 Informatica Cloud 커넥터를 사용하면 여러 가지 대규모 데이터 세트를 모든 데이터 소스에서 새롭게 프로비저닝된 하둡 클러스터로 이동할 수 있습니다.
With the Informatica Cloud connector for Hadoop, a variety of large datasets can be moved from any data source into a newly provisioned Hadoop cluster.
Twitter, LinkedIn, Chatter용 Informatica Cloud 커넥터를 하둡 커넥터와 결합하면 데이터 자산을 최대한 활용할 수 있습니다.
Informatica Cloud connectors for Twitter, LinkedIn, and Chatter, when combined with the Hadoop connector, allow you to make the most of your data assets.
즉, 구축하는 데이터 품질 솔루션을 사용하여 기업 내, 클라우드, 하둡 또는 하이브리드 에코시스템의 플랫폼 전체에서 확장할 수 있어야 합니다.
That means the data quality solution you deploy should allow you to scale across platforms—from on-premise to the cloud, in Hadoop, or in a hybrid ecosystem.
LINE Data Labs의 데이터 엔지니어가 서비스 데이터를 하둡 클러스터에 수집하고, 수집한 데이터를 가공 및 집계하는 ETL(Extract, Transform and Load) 모듈 개발.
Data engineers of LINE Data Labs collect data on a Hadoop cluster, and develop an ETL(Extract, Transform and Load) module to process and aggregate the data collected.
Results: 89, Time: 0.0322
S

Synonyms for 하둡

hadoop

Top dictionary queries

Korean - English