计算机基础知识笔记
计算机基础 1.计算机的基本概念 1.1什么是计算机? 1.2计算机的组成 2.计算机语言 2.1计算机语言的基本概念
计算机语言( ):指人和计算机之间通讯的语言。
2.2计算机语言的发展史
机器语言→汇编语言→高级语言
机器语言:用二进制代码表示的计算机能直接识别和执行的一种机器指令的集合。汇编语言:用与代码指令实际含义相近的英文缩写词、字母和数字等符号来取代指令代码(如用ADD表示运算符号“+”的机器代码),于是就产生了汇编语言,这样就提高了语言的记忆性和识别性。高级语言:与自然语言相近并为计算机所接受和执行的计算机语言称高级语言。高级语言是面向用户的语言。例如:JAVA、C++、等 2.3解释型和编译型的语言的区别
解释型语言和编程型语言的执行流程图
类型原理优点缺点
解释型语言
由专门的解释器,根据需要将部分源代码临时转换成特定平台的机器码。
跨平台性好,通过不同的解释器,将相同的源代码解释成不同平台下的机器码。
一边执行一边转换,效率很低。
编程型语言
通过专门的编译器,将所有源代码一次性转换成特定平台(、Linux 等)执行的机器码(以可执行文件的形式存在)。
编译一次后,脱离了编译器也可以运行,并且运行效率高。
可移植性差,不够灵活。
3.交互方式 3.1交互方式的种类 3.2交互文本模式打开的方式(win)
win键 + R → cmd → 回⻋,打开界面如下
3.3DOS命令
DOS(磁盘操作系统)命令:DOS操作系统的命令,是一种面向磁盘的操作命令,主要包括目录操作类命令、磁盘操作类命令、文件操作类命令和其它命令
操作解释
dir
列出当前目录下的文件夹和文件
md
创建文件夹
rd
删除空文件夹
cd
进入指定目录
cd…
退回上一级目录
cd/
退回到根目录
del
删除文件夹里的内容
exit
退出dos命令
4.文本文件和字符集 4.1 文本文件
⽂本分为两种 : 纯⽂本和富⽂本
纯⽂本在计算机底层也会转换为⼆进制保存
将字符转换为⼆进制码的过程,我们称之为编码 ()
将⼆进制码转换成字符的过程,我们称之为解码 ()
4.2 常见的字符集
ASCII:美国⼈编码 使⽤7位来对美国常⽤的字符进⾏编码 包含128个字符
ISO-8859-1:欧洲的编码 使⽤8位来编码 包含256个字符
GBK:中国⼈编码(国标码)
:万国码 包含世界上所有语⾔和字符 编写程序⼀般都会使⽤ 编码
编码有多种实现 UTF-8 UTF-16 UTF-32
5.进制 5.1 进制之间的转换
⼗进制–>⼆进制 原理: 对⼗进制数进⾏除2运算
⼆进制 – > ⼗进制 原理:⼆进制乘以2(次幂)的过程
具体的可以百度自行理解
进制越⼤表现形式越短,之所以出现其他进制就是为了更⽅便的表示数据
5.2进制的计数
十进制
规则:满十进一
计数:0 1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19······
二进制
规则:满二进一
计数:0 1 10 11 100 101 111 1000······
八进制
规则:满八进一
计数:0 1 2 3 4 5 6 7
10 11 12 13 14 15 16 17
20 21 22······
十六进制
规则:满十六进一
计数:0 1 2 3 4 5 6 7 8 9 a b c d e f
10 11 12 13 14 15 16 17 18 19 1a 1b 1c 1d 1e 1f
······
5.3数据存储单位间的换算
bit(比特)是计算机中最⼩的单位
byte(字节)是我们最⼩的可操作的单位
8bit = 1byte(字节)
= 1kb(千字节)
= 1mb(兆字节)
= 1gb(吉字节)
= 1tb(太字节)
6.环境变量 6.1 path环境变量