编程常用命令总结
admin
2024-02-28 15:16:53
0

编程命令大全

  • 1.软件环境变量的配置
    • Java
    • Scala
    • Spark
    • Hadoop
    • Hive
  • 2.大数据软件常用命令
    • Spark命令
    • Spark-shell命令
    • Hive命令
    • Hadoop命令
    • Zookeeper命令
    • kafka命令
    • Hibench命令
    • 端口号命令
    • Linux建立/删除/切换用户命令
    • Vim命令
    • Chmod命令
    • Nohup命令
    • df,du查看命令
    • pip命令
    • Zip与Unzip命令

1.软件环境变量的配置

Java

以JDK8为例

export JAVA_HOME=/home/BernardX/Toolkits/jdk8u191-b12
export PATH=${JAVA_HOME}/bin:${PATH}
export JRE_HOME=${JAVA_HOME}/jre

Scala

以scala2.11为例

export SCALA_HOME=/home/lemaker/Toolkits/scala-2.11.8
export PATH=${SCALA_HOME}/bin:${PATH}

Spark

以Spark2.4.5为例:

export SPARK_HOME=/home/lemaker/open-source/spark-2.4.5-bin-hadoop2.7
export PATH=${SPARK_HOME}/bin:${PATH}

Hadoop

以Hadoop2.7为例:

export HADOOP_HOME=/home/lemaker/HadoopEnv/hadoop-2.7.4
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${PATH}
export LD_LIBRARY_PATH=${HADOOP_HOME}/lib/native
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

Hive

以Hive2.3.5为例:

export HIVE_HOME=/home/lemaker/HadoopEnv/apache-hive-2.3.5-bin
export PATH=${HIVE_HOME}/bin:${PATH}
export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
export HIVE_CONF_DIR=${HIVE_HOME}/conf
export HCAT_HOME=${HIVE_HOME}/hcatalog

配置完成之后运行此命令(对当前用户的环境变量进行配置):

source ~/.bashrc

不要运行(对该机器上所有用户环境变量进行配置)命令,会污染当前机器其余用户的环境变量,/etc/profile的优先级会高于~/.bashrc文件,会进行环境变量的一个覆盖:

source /etc/profile

2.大数据软件常用命令

Spark命令

启动standalone模式下的所有集群(master以及slave节点)

bash $SPARK_HOME/sbin/start-all.sh

启动Spark HistoryServer

bash $SPARK_HOME/sbin/start-history-server.sh

Spark-shell命令

选择使用的数据库名字

sql("use tpcds_1000_parquet");

解析Query语句,打印执行过程中的计划

sql("specific query").explain(true);     

以TPC-DS中的Query1为例:

sql("WITH customer_total_return AS (SELECT sr_customer_sk AS ctr_customer_sk, sr_store_sk AS ctr_store_sk, sum(sr_return_amt) AS ctr_total_return FROM store_returns, date_dim WHERE sr_returned_date_sk = d_date_sk AND d_year = 2000 GROUP BY sr_customer_sk, sr_store_sk) SELECT c_customer_id FROM customer_total_return ctr1, store, customer WHERE ctr1.ctr_total_return >  (SELECT avg(ctr_total_return)*1.2 FROM customer_total_return ctr2 WHERE ctr1.ctr_store_sk = ctr2.ctr_store_sk) AND s_store_sk = ctr1.ctr_store_sk AND s_state = 'TN' AND ctr1.ctr_customer_sk = c_customer_sk ORDER BY c_customer_id LIMIT 100").explain(true);

查询表的内容

sql("select * from 表名");

Hive命令

启动Hive

$HIVE_HOME/bin/hive --service metastore &

查看Hive中所有数据库的名字

show databases;

删除Hive中的数据库

drop database 数据库名 cascade;

分析表的大小,行数以及具体信息

analyze table 表名 compute statistics;

查询表的所有内容

select * from 表名;

查询表的行数

select count(*) from 表名;

查看表的所有字段以及字段的所有类型

desc 表名;

查看表的详细信息

desc formatted 表名;

查看表的分区信息(如果不是分区表,会报错 Table call_center is not a partitioned table)

Hadoop命令

启动hdfs

start-dfs.sh

启动yarn

start-yarn.sh

hdfs上传文件

hdfs dfs -put 本地目录 hdfs目录 

hdfs创建文件/文件夹

hdfs dfs -mkdir -p hdfs文件夹(文件)

hdfs删除文件/文件夹

hdfs dfs -rm -r hdfs文件夹(文件)

namenode格式化命令(一般用于hadoo )

hdfs namenode -format

hadoop打开安全模式

hdfs dfsadmin -safemode enter

hadoop关闭安全模式

hdfs dfsadmin -safemode leave

查看nodemanager的结点个数以及进程pid

 yarn node -list

查看yarn当前application的信息

yarn application -list

Zookeeper命令

启动Zookeeper

bash $ZOOKEEPER_HOME/bin/zkServer.sh start 

查看Zookeeper每个节点的状态

bash $ZOOKEEPER_HOME/bin/zkServer.sh status

关闭Zookeeper所有节点

bash bin/zkServer.sh stop

重启Zookeeper所有节点

bash bin/zkServer.sh restart 

kafka命令

前台启动Kafka

bash $KAFKA_HOME/bin/kafka-server-start.sh $KAFKA_HOME/config/server.properties

查看Kafka当前的所有topic

bash $KAFKA_HOME/bin/kafka-topics.sh --zookeeper localhost:2181 --list

Kafka删除名字为test的topic

bash $KAFKA_HOME/bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test

Kafka创建名字为test的topic

bash $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test

Hibench命令

编译Flinkbench命令:

mvn -Pflinkbench -Dspark=2.4 -Dscala=2.11 clean package

编译Sparkbench命令:

mvn -Psparkbench -Dspark=2.4 -Dscala=2.11 clean package

运行Flink程序

#产生数据集
bin/workloads/streaming/identity/prepare/genSeedDataset.sh#流数据源源不断地发送给Kafka
bin/workloads/streaming/identity/prepare/dataGen.sh#Flink运行应用程序
bin/workloads/streaming/identity/flink/run.sh#等待一定的时间间隔之后(如10min),运行收集程序性能的脚本
bin/workloads/streaming/identity/common/metrics_reader.sh

运行Spark程序

#HDFS上产生数据集
bin/workloads/micro/wordcount/prepare/prepare.sh#Spark运行应用程序wordcount
bin/workloads/micro/wordcount/spark/run.sh

端口号命令

查看某个端口号被哪个进程占用

sudo netstat -nap | grep 端口号
ps -ef | grep 端口号

查看监听的端口号

sudo netstat -tpnl

Linux建立/删除/切换用户命令

删除用户

sudo userdel -r 用户名

切换用户(su为switch user的意思)

sudo su 用户名

添加用户

sudo useradd -m 用户名
sudo passwd 用户名(然后为其设置密码)

给新用户可以执行sudo的权限

#编辑文件
sudo vim /etc/sudoers
#找到对应的权限标识
#User privilege specification
root    ALL=(ALL:ALL) ALL
#在下面添加以下内容,并保存
新用户名   ALL=(ALL:ALL) ALL

Vim命令

强制保存只读文件

esc执行: :w !sudo tee %

Chmod命令

给整个目录(以及子目录)所有权限

sudo chmod -R 777 目录名

Nohup命令

nohup后台挂起格式如下

nohup 挂起的运行的命令 > output.log 2>&1 &

nohup实际执行命令如下:

nohup bash test.sh > output.log 2>&1 &

df,du查看命令

df检查磁盘空间占用情况(并不能查看某个目录占用的磁盘大小);du用于显示文件或目录所占的磁盘空间。

查看磁盘文件系统每个挂载点的分区大小

df -h

查看目录下文件大小(比如查看kafka-logs目录下所有文件之和的总大小)

du -h --max-depth=1 /tmp/kafka-logs

pip命令

安装依赖包指定国内镜像

 pip3 install -i  http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com 包名

pip升级

pip3 install --upgrade pip

Zip与Unzip命令

压缩Metrics目录下的所有文件,并将压缩包命名命名为Compress

zip -q -r Compress.zip Metrics/

相关内容

热门资讯

【MySQL】锁 锁 文章目录锁全局锁表级锁表锁元数据锁(MDL)意向锁AUTO-INC锁...
【内网安全】 隧道搭建穿透上线... 文章目录内网穿透-Ngrok-入门-上线1、服务端配置:2、客户端连接服务端ÿ...
GCN的几种模型复现笔记 引言 本篇笔记紧接上文,主要是上一篇看写了快2w字,再去接入代码感觉有点...
数据分页展示逻辑 import java.util.Arrays;import java.util.List;impo...
Redis为什么选择单线程?R... 目录专栏导读一、Redis版本迭代二、Redis4.0之前为什么一直采用单线程?三、R...
【已解决】ERROR: Cou... 正确指令: pip install pyyaml
关于测试,我发现了哪些新大陆 关于测试 平常也只是听说过一些关于测试的术语,但并没有使用过测试工具。偶然看到编程老师...
Lock 接口解读 前置知识点Synchronized synchronized 是 Java 中的关键字,...
Win7 专业版安装中文包、汉... 参考资料:http://www.metsky.com/archives/350.htm...
3 ROS1通讯编程提高(1) 3 ROS1通讯编程提高3.1 使用VS Code编译ROS13.1.1 VS Code的安装和配置...
大模型未来趋势 大模型是人工智能领域的重要发展趋势之一,未来有着广阔的应用前景和发展空间。以下是大模型未来的趋势和展...
python实战应用讲解-【n... 目录 如何在Python中计算残余的平方和 方法1:使用其Base公式 方法2:使用statsmod...
学习u-boot 需要了解的m... 一、常用函数 1. origin 函数 origin 函数的返回值就是变量来源。使用格式如下...
常用python爬虫库介绍与简... 通用 urllib -网络库(stdlib)。 requests -网络库。 grab – 网络库&...
药品批准文号查询|药融云-中国... 药品批文是国家食品药品监督管理局(NMPA)对药品的审评和批准的证明文件...
【2023-03-22】SRS... 【2023-03-22】SRS推流搭配FFmpeg实现目标检测 说明: 外侧测试使用SRS播放器测...
有限元三角形单元的等效节点力 文章目录前言一、重新复习一下有限元三角形单元的理论1、三角形单元的形函数(Nÿ...
初级算法-哈希表 主要记录算法和数据结构学习笔记,新的一年更上一层楼! 初级算法-哈希表...
进程间通信【Linux】 1. 进程间通信 1.1 什么是进程间通信 在 Linux 系统中,进程间通信...
【Docker】P3 Dock... Docker数据卷、宿主机与挂载数据卷的概念及作用挂载宿主机配置数据卷挂载操作示例一个容器挂载多个目...