程序员入门知识 程序员入门必须掌握的知识和技巧

在这个快速发展的数字化时代,编程已经成为了许多职业不可或缺的技能。无论你是想成为一名专业的程序员,还是想学习一些基本的编程知识来提升自己的职业技能,这个系列都将为你提供必要的基础知识。以下是有关程序员入门知识的内容,一起来看下吧。

程序员入门知识 程序员入门必须掌握的知识和技巧

第1篇:程序员入门知识

1、什么是编程范式?

“编程范式”是一种编程思想的总称,它是指在编写程序时所采用的基本方法和规范。常见的编程范式有面向对象、函数式、逻辑式等。

选择合适的编程范式可以提高代码的可读性、可维护性和可扩展性,是程序员必备的基本技能之一。

2、常见的编程范式

以下是常见的编程范式:

命令式编程(Imperative Programming):以指令的形式描述计算机执行的具体步骤,关注计算机的状态变化和控制流程。典型代表语言:C、Java。

面向对象编程(Object-Oriented Programming):将程序组织为对象的集合,强调数据和操作的封装、继承和多态。典型代表语言:Java、C++、Python。

函数式编程(Functional Programming):将计算视为数学函数的求值,强调使用纯函数、不可变数据和高阶函数。典型代表语言:Haskell、Clojure、Scala。

声明式编程(Declarative Programming):以描述问题的本质和解决方案的逻辑为重点,而非具体的计算步骤。包括逻辑编程、函数式编程、数据流编程等。典型代表语言:Prolog、SQL、HTML/CSS。

逻辑编程(Logic Programming):使用逻辑表达式描述问题和解决方案,基于逻辑推理进行计算。典型代表语言:Prolog。

并发编程(Concurrent Programming):处理多个并发执行的任务,关注并发、并行、同步和通信等问题。典型代表语言:Java、Go、Erlang。

泛型编程(Generic Programming):通过参数化类型来实现代码的复用和抽象,提供通用的数据结构和算法。典型代表语言:C++、Rust。

面向切面编程(Aspect-Oriented Programming):将横切关注点(如日志、事务管理)从主要逻辑中分离出来,以提供更好的模块化和可维护性。典型代表框架:AspectJ。

响应式编程(Reactive Programming):通过使用流(Stream)和异步事件来处理数据流和事件流,使程序能够以响应式、弹性和容错的方式进行处理。典型代表框架:RxJava、Reactor。

这些编程范式具有不同的思维方式、原则和技术,适用于不同的问题和场景。在实际开发中,可以根据需求和团队的偏好选择合适的编程范式或结合多种范式来实现目标。

需要注意的是,并非每种编程语言都完全支持所有编程范式,有些语言可能更加倾向于某种特定的范式。此外,随着技术的发展,新的编程范式也在不断涌现,扩展了编程的思维和能力。

3、命令式编程

命令式编程是一种以指令的形式描述计算机执行的具体步骤的编程范式。

在命令式编程中,开发人员需要逐步指定计算机执行的操作,包括数据的获取、处理和存储等。

这种编程范式关注计算机的状态变化和控制流程,通过改变状态和控制流程来实现所需的计算目标。

下面是一个使用 Java 语言的简单示例,展示了命令式编程的特点:

public class CommandExample {

    public static void main(String[] args) {

        int num1 = 5;

        int num2 = 10;

        int sum = 0;

        // 计算两个数的和

        sum = num1 + num2;

        // 打印结果

        System.out.println(“Sum: ” + sum);

    }

}

在上面的示例中,我们通过逐步指定计算机执行的操作来实现两个数的相加,并将结果打印出来。具体步骤如下:

.声明变量num1和num2,并初始化为5和10。

.声明变量sum,用于存储计算结果。

.执行相加操作num1 + num2,将结果赋值给sum。

.使用System.out.println打印结果。

这个示例展示了命令式编程的特点,即通过一系列的命令来改变计算机的状态(变量的赋值)和控制流程(指令的顺序执行)。开发人员需要显式地指定每个操作的细节,以实现所需的计算逻辑。

命令式编程的优点包括:

·直观性:命令式代码往往更容易理解和调试,因为操作和执行顺序直接可见。

·灵活性:命令式编程允许开发人员精确控制计算机的状态和行为,适用于各种复杂的计算任务。

然而,命令式编程也存在一些缺点:

·复杂性:随着程序规模的增长,命令式代码可能变得冗长、复杂,难以维护和扩展。

·可变性:命令式编程通常涉及可变状态,可能导致并发和并行执行的困难以及不确定性的问题。

总体而言,命令式编程是一种常见且实用的编程范式,特别适用于需要精确控制计算机行为和状态的情况。

4、面向对象编程

面向对象编程(Object-Oriented Programming,OOP)是一种基于对象的编程范式,它将现实世界中的事物抽象成对象,并通过对象之间的交互来实现程序的设计和开发。在面向对象编程中,程序的核心思想是通过定义类、创建对象、定义对象之间的关系和交互来构建软件系统。

下面是一个使用 Java 语言的简单示例,展示了面向对象编程的特点:

// 定义一个汽车类

class Car {

    private String brand;

    private String color;

    public Car(String brand, String color) {

        this.brand = brand;

        this.color = color;

    }

    public void start() {

        System.out.println(“The ” + color + ” ” + brand + ” car starts.”);

    }

    public void stop() {

        System.out.println(“The ” + color + ” ” + brand + ” car stops.”);

    }

}

public class OOPExample {

    public static void main(String[] args) {

        // 创建一个Car对象

        Car myCar = new Car(“Toyota”, “Red”);

        // 调用对象的方法

        myCar.start();

        myCar.stop();

    }

}

在上面的示例中,我们定义了一个Car类,它具有品牌和颜色属性,并且具有start()和stop()方法用于启动和停止汽车。在main()方法中,我们创建了一个Car对象myCar,并调用了其方法来启动和停止汽车。

这个示例展示了面向对象编程的特点,即通过定义类和创建对象来实现程序的设计和开发。具体步骤如下:

.定义一个Car类,它具有品牌和颜色属性,并且定义了start()和stop()方法。

.在main()方法中,通过new关键字创建一个Car对象myCar,并传递品牌和颜色参数。

.调用myCar对象的start()和stop()方法来启动和停止汽车。

面向对象编程的优点包括:

·模块化:通过将功能封装在对象中,实现了代码的模块化和重用。

·继承与多态:通过继承和多态的机制,实现了代码的扩展和灵活性。

·封装与信息隐藏:通过将数据和方法封装在对象中,提高了代码的安全性和可维护性。

·可维护性:面向对象编程的代码通常更易于理解、调试和维护。

然而,面向对象编程也存在一些挑战和缺点:

·学习曲线:面向对象编程的概念和原则需要一定的学习和理解。

·性能开销:面向对象编程的灵活性和封装性可能导致一定的性能开销。

·设计复杂性:设计良好的面向对象系统需要合理的类和对象设计,这可能增加系统的复杂性。

总的来说,面向对象编程是一种强大的编程范式,它提供了丰富的工具和概念来构建灵活、可扩展和可维护的软件系统。

5、函数式编程

函数式编程(Functional Programming,FP)是一种将计算视为函数求值过程的编程范式,并强调使用纯函数、不可变数据和函数组合来构建软件系统。函数式编程强调将程序分解成若干独立的函数,并通过函数之间的组合和组合操作来解决问题。

下面是一个使用 Java 语言的简单示例,展示了函数式编程的特点:

import java.util.Arrays;

import java.util.List;

public class FPExample {

    public static void main(String[] args) {

        // 创建一个字符串列表

        List<String> words = Arrays.asList(“apple”, “banana”, “orange”, “pear”);

        // 使用函数式编程方式进行操作

        words.stream()

             .filter(word -> word.length() > 5) // 过滤长度大于5的单词

             .map(String::toUpperCase) // 将单词转换为大写

             .forEach(System.out::println); // 打印结果

    }

}

在上面的示例中,我们使用了函数式编程的特性来处理一个字符串列表。具体步骤如下:

.创建一个字符串列表words,包含了几个水果名称。

.使用stream()方法将列表转换为流,这样可以对其进行一系列的操作。

.使用filter()方法对流进行过滤,只保留长度大于5的单词。

.使用map()方法将单词转换为大写。

.使用forEach()方法遍历流中的每个元素,并将结果打印出来。

函数式编程的特点包括:

·纯函数:函数式编程强调使用纯函数,即没有副作用、只依赖于输入参数并返回结果的函数。

·不可变数据:函数式编程鼓励使用不可变数据,避免修改已有数据,而是通过创建新的数据来实现状态的改变。

·函数组合:函数式编程支持函数的组合,可以将多个函数组合成一个更复杂的函数,提高代码的复用性和可读性。

·延迟计算:函数式编程中的操作通常是延迟计算的,只有在需要结果时才会进行计算,这提供了更高的灵活性和效率。

函数式编程的优点包括:

·可读性:函数式编程强调代码的表达能力和可读性,使代码更易于理解和维护。

·可测试性:纯函数和不可变数据使函数式代码更易于测试,减少了对外部状态和依赖的需求。

·并发性:函数式编程天然适合并发编程,由于纯函数没有副作用,可以安全地在多线程环境中执行。

然而,函数式编程也存在一些挑战和限制:

·学习曲线:函数式编程的概念和技巧需要一定的学习和适应时间。

·性能问题:某些情况下,函数式编程可能导致额外的内存和计算开销,需要权衡性能和代码简洁性之间的关系。

·生态系统:与面向对象编程相比,函数式编程在某些编程语言和框架中的支持和生态系统可能相对较少。

总的来说,函数式编程是一种强调函数和数据的不变性、组合和延迟计算的编程范式,它能够提供可读性强、可测试性高和并发性好等优点。然而,选择使用函数式编程还是传统的命令式编程取决于具体的应用场景和需求。

第2篇:程序员入门知识

内存

CPU 和 内存就像是一堆不可分割的恋人一样,是无法拆散的一对儿,没有内存,CPU 无法执行程序指令,那么计算机也就失去了意义;只有内存,无法执行指令,那么计算机照样无法运行。

那么什么是内存呢?内存和 CPU 如何进行交互?下面就来介绍一下

什么是内存

内存(Memory)是计算机中最重要的部件之一,它是程序与CPU进行沟通的桥梁。计算机中所有程序的运行都是在内存中进行的,因此内存对计算机的影响非常大,内存又被称为主存,其作用是存放 CPU 中的运算数据,以及与硬盘等外部存储设备交换的数据。只要计算机在运行中,CPU 就会把需要运算的数据调到主存中进行运算,当运算完成后CPU再将结果传送出来,主存的运行也决定了计算机的稳定运行。

内存的物理结构

内存的内部是由各种 IC 电路组成的,它的种类很庞大,但是其主要分为三种存储器

·随机存储器(RAM): 内存中最重要的一种,表示既可以从中读取数据,也可以写入数据。当机器关闭时,内存中的信息会 丢失。

·只读存储器(ROM):ROM 一般只能用于数据的读取,不能写入数据,但是当机器停电时,这些数据不会丢失。

·高速缓存(Cache):Cache 也是我们经常见到的,它分为一级缓存(L1 Cache)、二级缓存(L2 Cache)、三级缓存(L3 Cache)这些数据,它位于内存和 CPU 之间,是一个读写速度比内存更快的存储器。当 CPU 向内存写入数据时,这些数据也会被写入高速缓存中。当 CPU 需要读取数据时,会直接从高速缓存中直接读取,当然,如需要的数据在Cache中没有,CPU会再去读取内存中的数据。

内存 IC 是一个完整的结构,它内部也有电源、地址信号、数据信号、控制信号和用于寻址的 IC 引脚来进行数据的读写。下面是一个虚拟的 IC 引脚示意图

图中 VCC 和 GND 表示电源,A0 – A9 是地址信号的引脚,D0 – D7 表示的是控制信号、RD 和 WR 都是好控制信号,我用不同的颜色进行了区分,将电源连接到 VCC 和 GND 后,就可以对其他引脚传递 0 和 1 的信号,大多数情况下,+5V 表示1,0V 表示 0。

我们都知道内存是用来存储数据,那么这个内存 IC 中能存储多少数据呢?D0 – D7 表示的是数据信号,也就是说,一次可以输入输出 8 bit = 1 byte 的数据。A0 – A9 是地址信号共十个,表示可以指定 00000 00000 – 11111 11111 共 2 的 10次方 = 1024个地址。每个地址都会存放 1 byte 的数据,因此我们可以得出内存 IC 的容量就是 1 KB。

内存的读写过程

让我们把关注点放在内存 IC 对数据的读写过程上来吧!我们来看一个对内存IC 进行数据写入和读取的模型

来详细描述一下这个过程,假设我们要向内存 IC 中写入 1byte 的数据的话,它的过程是这样的:

·首先给 VCC 接通 +5V 的电源,给 GND 接通 0V 的电源,使用 A0 – A9 来指定数据的存储场所,然后再把数据的值输入给 D0 – D7 的数据信号,并把 WR(write)的值置为 1,执行完这些操作后,即可以向内存 IC 写入数据

·读出数据时,只需要通过 A0 – A9 的地址信号指定数据的存储场所,然后再将 RD 的值置为 1 即可。

·图中的 RD 和 WR 又被称为控制信号。其中当WR 和 RD 都为 0 时,无法进行写入和读取操作。

内存的现实模型

为了便于记忆,我们把内存模型映射成为我们现实世界的模型,在现实世界中,内存的模型很想我们生活的楼房。在这个楼房中,1层可以存储一个字节的数据,楼层号就是地址,下面是内存和楼层整合的模型图

我们知道,程序中的数据不仅只有数值,还有数据类型的概念,从内存上来看,就是占用内存大小(占用楼层数)的意思。即使物理上强制以 1 个字节为单位来逐一读写数据的内存,在程序中,通过指定其数据类型,也能实现以特定字节数为单位来进行读写。

二进制

我们都知道,计算机的底层都是使用二进制数据进行数据流传输的,那么为什么会使用二进制表示计算机呢?或者说,什么是二进制数呢?在拓展一步,如何使用二进制进行加减乘除?下面就来看一下

什么是二进制数

那么什么是二进制数呢?为了说明这个问题,我们先把 00100111 这个数转换为十进制数看一下,二进制数转换为十进制数,直接将各位置上的值 * 位权即可,那么我们将上面的数值进行转换

也就是说,二进制数代表的 00100111 转换成十进制就是 39,这个 39 并不是 3 和 9 两个数字连着写,而是 3 * 10 + 9 * 1,这里面的 10 , 1 就是位权,以此类推,上述例子中的位权从高位到低位依次就是 7 6 5 4 3 2 1 0。这个位权也叫做次幂,那么最高位就是2的7次幂,2的6次幂 等等。二进制数的运算每次都会以2为底,这个2 指得就是基数,那么十进制数的基数也就是 10 。在任何情况下位权的值都是 数的位数 – 1,那么第一位的位权就是 1 – 1 = 0, 第二位的位权就睡 2 – 1 = 1,以此类推。

那么我们所说的二进制数其实就是 用0和1两个数字来表示的数,它的基数为2,它的数值就是每个数的位数 * 位权再求和得到的结果,我们一般来说数值指的就是十进制数,那么它的数值就是 3 * 10 + 9 * 1 = 39。

移位运算和乘除的关系

在了解过二进制之后,下面我们来看一下二进制的运算,和十进制数一样,加减乘除也适用于二进制数,只要注意逢 2 进位即可。二进制数的运算,也是计算机程序所特有的运算,因此了解二进制的运算是必须要掌握的。

首先我们来介绍移位 运算,移位运算是指将二进制的数值的各个位置上的元素坐左移和右移操作,见下图

补数

刚才我们没有介绍右移的情况,是因为右移之后空出来的高位数值,有 0 和 1 两种形式。要想区分什么时候补0什么时候补1,首先就需要掌握二进制数表示负数的方法。

二进制数中表示负数值时,一般会把最高位作为符号来使用,因此我们把这个最高位当作符号位。 符号位是 0 时表示正数,是 1 时表示 负数。那么 -1 用二进制数该如何表示呢?可能很多人会这么认为: 因为 1 的二进制数是 0000 0001,最高位是符号位,所以正确的表示 -1 应该是 1000 0001,但是这个答案真的对吗?

计算机世界中是没有减法的,计算机在做减法的时候其实就是在做加法,也就是用加法来实现的减法运算。比如 100 – 50 ,其实计算机来看的时候应该是 100 + (-50),为此,在表示负数的时候就要用到二进制补数,补数就是用正数来表示的负数。

为了获得补数,我们需要将二进制的各数位的数值全部取反,然后再将结果 + 1 即可,先记住这个结论,下面我们来演示一下。

具体来说,就是需要先获取某个数值的二进制数,然后对二进制数的每一位做取反操作(0 —> 1 , 1 —> 0),最后再对取反后的数 +1 ,这样就完成了补数的获取。

补数的获取,虽然直观上不易理解,但是逻辑上却非常严谨,比如我们来看一下 1 – 1 的这个过程,我们先用上面的这个 1000 0001(它是1的补数,不知道的请看上文,正确性先不管,只是用来做一下计算)来表示一下

奇怪,1 – 1 会变成 130 ,而不是0,所以可以得出结论 1000 0001 表示 -1 是完全错误的。

那么正确的该如何表示呢?其实我们上面已经给出结果了,那就是 1111 1111,来论证一下它的正确性

我们可以看到 1 – 1 其实实际上就是 1 + (-1),对 -1 进行上面的取反 + 1 后变为 1111 1111, 然后与 1 进行加法运算,得到的结果是九位的 1 0000 0000,结果发生了溢出,计算机会直接忽略掉溢出位,也就是直接抛掉 最高位 1 ,变为 0000 0000。也就是 0,结果正确,所以 1111 1111 表示的就是 -1 。

所以负数的二进制表示就是先求其补数,补数的求解过程就是对原始数值的二进制数各位取反,然后将结果 + 1。

算数右移和逻辑右移的区别

在了解完补数后,我们重新考虑一下右移这个议题,右移在移位后空出来的最高位有两种情况 0 和 1。

将二进制数作为带符号的数值进行右移运算时,移位后需要在最高位填充移位前符号位的值( 0 或 1)。这就被称为算数右移。如果数值使用补数表示的负数值,那么右移后在空出来的最高位补 1,就可以正确的表示 1/2,1/4,1/8等的数值运算。如果是正数,那么直接在空出来的位置补 0 即可。

下面来看一个右移的例子。将 -4 右移两位,来各自看一下移位示意图

如上图所示,在逻辑右移的情况下, -4 右移两位会变成 63, 显然不是它的 1/4,所以不能使用逻辑右移,那么算数右移的情况下,右移两位会变为 -1,显然是它的 1/4,故而采用算数右移。

那么我们可以得出来一个结论:左移时,无论是图形还是数值,移位后,只需要将低位补 0 即可;右移时,需要根据情况判断是逻辑右移还是算数右移。

下面介绍一下符号扩展:将数据进行符号扩展是为了产生一个位数加倍、但数值大小不变的结果,以满足有些指令对操作数位数的要求,例如倍长于除数的被除数,再如将数据位数加长以减少计算过程中的误差。

以8位二进制为例,符号扩展就是指在保持值不变的前提下将其转换成为16位和32位的二进制数。将0111 1111这个正的 8位二进制数转换成为 16位二进制数时,很容易就能够得出0000 0000 0111 1111这个正确的结果,但是像 1111 1111这样的补数来表示的数值,该如何处理?直接将其表示成为1111 1111 1111 1111就可以了。也就是说,不管正数还是补数表示的负数,只需要将 0 和 1 填充高位即可。

第3篇:程序员入门知识

1、声明式编程

声明式编程(Declarative Programming)是一种关注描述问题逻辑和规则编程范式,而不是指定如何执行解决问题的步骤。在声明式编程中,我们通过声明所需的结果和约束条件,让计算机自行推导出解决方案,而不需要明确指定每个步骤的执行细节。

下面是一个使用SQL语言的简单示例,展示了声明式编程的特点:

— 创建一个示例表

CREATE TABLE students (

  id INT PRIMARY KEY,

  name VARCHAR(50),

  age INT

);

— 查询年龄小于20岁的学生姓名

SELECT name FROM students WHERE age < 20;

在上面的示例中,我们使用SQL语言查询年龄小于20岁的学生姓名。具体步骤如下:

.创建了一个名为students的表,包含id、name和age三个字段。

.使用SELECT语句查询表中年龄小于20岁的学生姓名。

声明式编程的特点包括:

·声明性描述:以声明的方式描述问题,表达问题的逻辑和规则,而不是指定执行步骤。

·抽象化:隐藏了底层的实现细节,让开发者可以更专注于问题本身,而不是具体的实现方式。

·自动推导:计算机根据声明的逻辑和规则自动推导出解决方案,无需手动指定每个步骤的执行细节。

·高度可读性:声明式代码通常更易于阅读和理解,因为它更接近自然语言和问题描述。

声明式编程的优点包括:

·简洁性:声明式代码通常更为简洁,不需要编写大量的实现细节,减少了冗余代码和错误的可能性。

·可维护性:由于隐藏了底层实现细节,声明式代码更易于维护和修改,提高了代码的可维护性。

·可扩展性:声明式代码通常具有更好的可扩展性,可以通过添加更多的声明来处理更复杂的问题。

然而,声明式编程也存在一些限制和挑战:

·学习曲线:对于习惯于命令式编程的开发者来说,理解和掌握声明式编程的概念和技巧可能需要一定的学习和适应时间。

·灵活性:在某些情况下,声明式编程的灵活性可能受到限制,特定的问题可能需要更多的控制和定制。

总的来说,声明式编程是一种强调描述问题逻辑和规则,让计算机自行推导解决方案

2、逻辑编程

逻辑编程(Logic Programming)是一种基于逻辑推理和规则匹配的思想来描述问题和求解问题的编程范式。在逻辑编程中,我们定义一组逻辑规则和事实,通过逻辑推理系统自动推导出解决方案。

逻辑编程最著名的代表是 Prolog 语言。下面是一个使用 Prolog 语言的简单示例,展示了逻辑编程的特点:

% 定义一些逻辑规则和事实

parent(john, jim).

parent(john, ann).

parent(jim, lisa).

parent(lisa, mary).

% 定义一个递归规则,判断某人是否是某人的祖先

ancestor(X, Y) :- parent(X, Y).

ancestor(X, Y) :- parent(X, Z), ancestor(Z, Y).

% 查询某人的祖先

?- ancestor(john, mary).

在上面的示例中,我们定义了一些逻辑规则和事实,包括父母关系和祖先关系。具体步骤如下:

.定义了parent谓词,表示父母关系,例如john是jim的父亲。

.定义了ancestor规则,使用递归的方式判断某人是否是某人的祖先。如果某人直接是某人的父母,则是其祖先;如果某人是某人的父母的祖先,则也是其祖先。

.使用?-查询符号,查询john是否是mary的祖先。

逻辑编程的特点包括:

·逻辑推理:基于逻辑规则和事实进行推理和求解,通过自动匹配和推导得到结果。

·规则驱动:根据事实和规则的定义,逻辑编程系统能够自动推导出问题的解决方案,无需手动指定具体步骤。

·无副作用:逻辑编程不涉及变量状态的修改和副作用,每次计算都是基于规则和事实的逻辑推理。

逻辑编程的优点包括:

·声明性:逻辑编程的代码更接近于问题的逻辑描述,更易于理解和阅读。

·自动化推理:通过逻辑推理系统自动推导出解决方案,减少了手动编写执行步骤的工作。

·逻辑表达能力:逻辑编程可以处理复杂的逻辑关系和约束,能够表达丰富的问题领域。

然而,逻辑编程也存在一些限制和挑战:

·效率问题:逻辑编程系统可能面临推理效率的挑战,特别是在处理大规模问题时。

·学习曲线:对于习惯于命令式编程的开发者来说,掌握逻辑编程的概念和技巧可能需要一定的学习和适应时间。

·限制性问题:逻辑编程的应用范围可能受到一些限制,某些问题可能更适合其他编程范式来解决。

总的来说,逻辑编程是一种基于逻辑推理和规则匹配的编程范式,通过定义逻辑规则和事实,利用逻辑推理系统自动推导出解决方案。

3、并发编程

并发编程是一种用于处理多个任务或操作在同一时间段内并发执行情况的编程范式。在并发编程中,程序可以同时执行多个任务,并且这些任务可能相互交互、竞争资源或者需要同步。

并发编程通常涉及多线程编程,其中线程是独立执行的代码片段,每个线程可以在不同的处理器核心或线程上并发执行。下面是一个简单的 Java 代码示例,展示了并发编程的特点:

public class ConcurrentExample {

    public static void main(String[] args) {

        // 创建一个共享的计数器对象

        Counter counter = new Counter();

        // 创建多个线程并发执行增加计数的操作

        Thread thread1 = new Thread(() -> {

            for (int i = 0; i < 1000; i++) {

                counter.increment();

            }

        });

        Thread thread2 = new Thread(() -> {

            for (int i = 0; i < 1000; i++) {

                counter.increment();

            }

        });

        // 启动线程

        thread1.start();

        thread2.start();

        // 等待线程执行完毕

        try {

            thread1.join();

            thread2.join();

        } catch (InterruptedException e) {

            e.printStackTrace();

        }

        // 输出计数器的值

        System.out.println(“Counter value: ” + counter.getValue());

    }

}

class Counter {

    private int value = 0;

    public void increment() {

        value++;

    }

    public int getValue() {

        return value;

    }

}

在上面的示例中,我们创建了一个共享的计数器对象Counter,并且创建了两个线程thread1和thread2,它们并发执行增加计数的操作。每个线程在循环中多次调用increment()方法增加计数器的值。最后,我们等待两个线程执行完毕,并输出计数器的最终值。

并发编程的特点包括:

·并行执行:多个任务或操作可以在同一时间段内并发执行,充分利用系统的资源。

·竞争条件:并发执行可能导致资源竞争和冲突,需要合理处理共享资源的访问。

·同步和互斥:使用同步机制(如锁、信号量、条件变量等)来控制并发执行的顺序和访问权限。

·并发安全性:确保并发执行的正确性和一致性,避免数据竞争和不确定的行为。

并发编程的优点包括:

·提高系统性能:通过并发执行任务,可以提高系统的处理能力和响应速度。

·增强用户体验:并发编程可以使应用程序在处理并发请求时更加流畅和高效。

·充分利用硬件资源:利用多核处理器和多线程技术,最大程度地发挥硬件的性能。

然而,并发编程也存在一些挑战和难点:

·线程安全问题:多线程环境下,需要注意共享资源的访问安全,避免数据竞争和并发错误。

·死锁和活锁:不正确的同步操作可能导致线程死锁或活锁,影响系统的可用性。

·调度和性能问题:线程的调度和上下文切换会带来一定的开销,不当的并发设计可能导致性能下降。

因此,在并发编程中,合理的并发控制和同步机制的设计非常重要,以确保正确性、避免竞争条件,并提高系统的性能和可靠性。

4、泛型编程

泛型编程是一种旨在增加代码的可重用性、可读性和类型安全性的编程范式。它通过在代码中使用类型参数来实现通用性,使得可以编写适用于多种数据类型的通用算法和数据结构。

在 Java 中,泛型编程通过使用尖括号<>来定义类型参数,并将其应用于类、接口、方法等。下面是一个简单的示例代码,展示了泛型编程的特点:

public class GenericExample<T> {

    private T value;

    public GenericExample(T value) {

        this.value = value;

    }

    public T getValue() {

        return value;

    }

    public void setValue(T value) {

        this.value = value;

    }

    public static <E> void printArray(E[] array) {

        for (E element : array) {

            System.out.println(element);

        }

    }

    public static void main(String[] args) {

        GenericExample<String> example1 = new GenericExample<>(“Hello”);

        System.out.println(example1.getValue());

        GenericExample<Integer> example2 = new GenericExample<>(123);

        System.out.println(example2.getValue());

        Integer[] numbers = {1, 2, 3, 4, 5};

        printArray(numbers);

        String[] words = {“apple”, “banana”, “cherry”};

        printArray(words);

    }

}

在上面的示例中,我们定义了一个泛型类GenericExample<T>,它接受一个类型参数T。我们可以使用这个泛型类来创建不同类型的对象,并在运行时指定类型。通过使用泛型,我们可以实现类型安全的操作,避免了在运行时进行类型转换。

此外,示例中还展示了一个泛型方法printArray(E[] array),它可以接受不同类型的数组,并打印数组中的元素。

泛型编程的优点包括:

·代码重用:泛型可以适用于多种数据类型,减少了代码的重复编写。

·类型安全:泛型在编译时会进行类型检查,提前发现类型错误,减少运行时错误。

·可读性和可维护性:泛型代码更加清晰和易于理解,提高了代码的可读性和可维护性。

需要注意的是,泛型编程并不适用于所有情况,有些特定需求可能需要使用原始类型或进行类型转换。此外,泛型的类型擦除机制也可能导致在运行时丢失类型信息的问题。

总之,泛型编程是一种强大的工具,可以提高代码的灵活性和可重用性,并提供类型安全的编程环境。它在许多现代编程语言中得到广泛应用,并成为开发中的重要概念之一。

5、面向切面编程

面向切面编程(Aspect-Oriented Programming,AOP)是一种用于解决横切关注点的模块化问题的编程范式。横切关注点是指跨越应用程序多个模块的功能,例如日志记录、性能监测、事务管理等。AOP通过将横切关注点从主要业务逻辑中分离出来,使得代码更加模块化、可维护性更高。

AOP 的核心思想是将横切关注点抽象为一个称为”切面”(Aspect)的模块。切面通过定义一组与特定关注点相关的通用行为(即”切点”),在目标代码执行的不同阶段(称为”连接点”)插入这些通用行为,从而实现横切关注点的功能。

以下是一个使用 AOP 的示例,结合Java代码进行说明:

假设有一个名为UserService的类,其中有一个方法void saveUser(User user)用于保存用户信息。

public class UserService {

    public void saveUser(User user) {

        // 保存用户信息的业务逻辑

        // …

    }

}

现在我们希望在执行saveUser方法之前记录日志。可以使用 AOP 来实现这个功能。

首先,定义一个切面类LoggingAspect,其中包含一个切点(Pointcut)和通知(Advice):

@Aspect

public class LoggingAspect {

    @Before(“execution(* com.example.UserService.saveUser(..))”)

    public void beforeSaveUser(JoinPoint joinPoint) {

        // 在saveUser方法执行之前执行的通知

        System.out.println(“Before saving user: ” + joinPoint.getArgs()[0]);

    }

}

在切面类中,使用@Aspect注解表示这是一个切面类。@Before注解定义了一个前置通知(Before Advice),它指定了切点表达式execution(* com.example.UserService.saveUser(..)),表示在执行UserService类的saveUser方法之前触发通知。

然后,在应用程序的配置文件中启用AOP:

@Configuration

@EnableAspectJAutoProxy

public class AppConfig {

    // 配置其他组件和Bean

    // …

}

在配置类中,使用@EnableAspectJAutoProxy注解启用 AOP 功能。

最后,使用UserService类时,AOP会自动织入切面逻辑:

public static void main(String[] args) {

    AnnotationConfigApplicationContext context = new AnnotationConfigApplicationContext(AppConfig.class);

    UserService userService = context.getBean(UserService.class);

    User user = new User(“John Doe”);

    userService.saveUser(user);

}

在上述示例中,每次调用saveUser方法时,切面中定义的beforeSaveUser方法会在方法执行之前被触发,打印出”Before saving user: John Doe”的日志信息。

面向切面编程使得横切关注点的实现与主要业务逻辑分离,提高了代码的可维护性和可重用性。它可以减少代码的重复性,将一些通用的功能集中在切面中实现,使得代码更加清晰、简洁。同时,AOP 还提供了更大的灵活性,可以在不修改原有代码的情况下添加、删除或修改横切关注点的行为。

需要注意的是,AOP 并不适用于所有场景,它主要用于解决横切关注点的问题。在某些情况下,如果横切关注点与主要业务逻辑高度耦合,使用 AOP 可能会导致代码的可读性和维护性下降。因此,在使用 AOP 时需要谨慎权衡,并根据具体场景选择合适的编程范式和技术。

第4篇:程序员入门知识

内存和磁盘的关系

我们大家知道,计算机的五大基础部件是 存储器、控制器、运算器、输入和输出设备,其中从存储功能的角度来看,可以把存储器分为内存和 磁盘,我们上面介绍过内存,下面就来介绍一下磁盘以及磁盘和内存的关系

程序不读入内存就无法运行

计算机最主要的存储部件是内存和磁盘。磁盘中存储的程序必须加载到内存中才能运行,在磁盘中保存的程序是无法直接运行的,这是因为负责解析和运行程序内容的 CPU 是需要通过程序计数器来指定内存地址从而读出程序指令的。

磁盘构造

磁盘缓存

我们上面提到,磁盘往往和内存是互利共生的关系,相互协作,彼此持有良好的合作关系。每次内存都需要从磁盘中读取数据,必然会读到相同的内容,所以一定会有一个角色负责存储我们经常需要读到的内容。 我们大家做软件的时候经常会用到缓存技术,那么硬件层面也不例外,磁盘也有缓存,磁盘的缓存叫做磁盘缓存。

磁盘缓存指的是把从磁盘中读出的数据存储到内存的方式,这样一来,当接下来需要读取相同的内容时,就不会再通过实际的磁盘,而是通过磁盘缓存来读取。某一种技术或者框架的出现势必要解决某种问题的,那么磁盘缓存就大大改善了磁盘访问的速度。

虚拟内存

虚拟内存是内存和磁盘交互的第二个媒介。虚拟内存是指把磁盘的一部分作为假想内存来使用。这与磁盘缓存是假想的磁盘(实际上是内存)相对,虚拟内存是假想的内存(实际上是磁盘)。

虚拟内存是计算机系统内存管理的一种技术。它使得应用程序认为它拥有连续可用的内存(一个完整的地址空间),但是实际上,它通常被分割成多个物理碎片,还有部分存储在外部磁盘管理器上,必要时进行数据交换。

通过借助虚拟内存,在内存不足时仍然可以运行程序。例如,在只剩 5MB 内存空间的情况下仍然可以运行 10MB 的程序。由于 CPU 只能执行加载到内存中的程序,因此,虚拟内存的空间就需要和内存中的空间进行置换(swap),然后运行程序。

虚拟内存与内存的交换方式

虚拟内存的方法有分页式 和 分段式 两种。Windows 采用的是分页式。该方式是指在不考虑程序构造的情况下,把运行的程序按照一定大小的页进行分割,并以页为单位进行置换。在分页式中,我们把磁盘的内容读到内存中称为 Page In,把内存的内容写入磁盘称为 Page Out。Windows 计算机的页大小为 4KB ,也就是说,需要把应用程序按照 4KB 的页来进行切分,以页(page)为单位放到磁盘中,然后进行置换。

为了实现内存功能,Windows 在磁盘上提供了虚拟内存使用的文件(page file,页文件)。该文件由 Windows 生成和管理,文件的大小和虚拟内存大小相同,通常大小是内存的 1 – 2 倍。

磁盘的物理结构

之前我们介绍了CPU、内存的物理结构,现在我们来介绍一下磁盘的物理结构。磁盘的物理结构指的是磁盘存储数据的形式。

磁盘是通过其物理表面划分成多个空间来使用的。划分的方式有两种:可变长方式 和 扇区方式。前者是将物理结构划分成长度可变的空间,后者是将磁盘结构划分为固定长度的空间。一般 Windows 所使用的硬盘和软盘都是使用扇区这种方式。扇区中,把磁盘表面分成若干个同心圆的空间就是 磁道,把磁道按照固定大小的存储空间划分而成的就是 扇区

扇区是对磁盘进行物理读写的最小单位。Windows 中使用的磁盘,一般是一个扇区 512 个字节。不过,Windows 在逻辑方面对磁盘进行读写的单位是扇区整数倍簇。根据磁盘容量不同功能,1簇可以是 512 字节(1 簇 = 1扇区)、1KB(1簇 = 2扇区)、2KB、4KB、8KB、16KB、32KB( 1 簇 = 64 扇区)。簇和扇区的大小是相等的。

压缩算法

我们想必都有过压缩和 解压缩文件的经历,当文件太大时,我们会使用文件压缩来降低文件的占用空间。比如微信上传文件的限制是100 MB,我这里有个文件夹无法上传,但是我解压完成后的文件一定会小于 100 MB,那么我的文件就可以上传了。

此外,我们把相机拍完的照片保存到计算机上的时候,也会使用压缩算法进行文件压缩,文件压缩的格式一般是JPEG。

那么什么是压缩算法呢?压缩算法又是怎么定义的呢?在认识算法之前我们需要先了解一下文件是如何存储的

文件存储

文件是将数据存储在磁盘等存储媒介的一种形式。程序文件中最基本的存储数据单位是字节。文件的大小不管是 xxxKB、xxxMB等来表示,就是因为文件是以字节 B = Byte 为单位来存储的。

文件就是字节数据的集合。用 1 字节(8 位)表示的字节数据有 256 种,用二进制表示的话就是 0000 0000 – 1111 1111 。如果文件中存储的数据是文字,那么该文件就是文本文件。如果是图形,那么该文件就是图像文件。在任何情况下,文件中的字节数都是连续存储的。

压缩算法的定义

上面介绍了文件的集合体其实就是一堆字节数据的集合,那么我们就可以来给压缩算法下一个定义。

压缩算法(compaction algorithm)指的就是数据压缩的算法,主要包括压缩和还原(解压缩)的两个步骤。

其实就是在不改变原有文件属性的前提下,降低文件字节空间和占用空间的一种算法。

根据压缩算法的定义,我们可将其分成不同的类型:

有损和无损

无损压缩:能够无失真地从压缩后的数据重构,准确地还原原始数据。可用于对数据的准确性要求严格的场合,如可执行文件和普通文件的压缩、磁盘的压缩,也可用于多媒体数据的压缩。该方法的压缩比较小。如差分编码、RLE、Huffman编码、LZW编码、算术编码。

有损压缩:有失真,不能完全准确地恢复原始数据,重构的数据只是原始数据的一个近似。可用于对数据的准确性要求不高的场合,如多媒体数据的压缩。该方法的压缩比较大。例如预测编码、音感编码、分形压缩、小波压缩、JPEG/MPEG。

对称性

如果编解码算法的复杂性和所需时间差不多,则为对称的编码方法,多数压缩算法都是对称的。但也有不对称的,一般是编码难而解码容易,如 Huffman 编码和分形编码。但用于密码学的编码方法则相反,是编码容易,而解码则非常难。

帧间与帧内

在视频编码中会同时用到帧内与帧间的编码方法,帧内编码是指在一帧图像内独立完成的编码方法,同静态图像的编码,如 JPEG;而帧间编码则需要参照前后帧才能进行编解码,并在编码过程中考虑对帧之间的时间冗余的压缩,如 MPEG。

实时性

在有些多媒体的应用场合,需要实时处理或传输数据(如现场的数字录音和录影、播放MP3/RM/VCD/DVD、视频/音频点播、网络现场直播、可视电话、视频会议),编解码一般要求延时 ≤50 ms。这就需要简单/快速/高效的算法和高速/复杂的CPU/DSP芯片。

分级处理

有些压缩算法可以同时处理不同分辨率、不同传输速率、不同质量水平的多媒体数据,如JPEG2000、MPEG-2/4。

这些概念有些抽象,主要是为了让大家了解一下压缩算法的分类,下面我们就对具体的几种常用的压缩算法来分析一下它的特点和优劣

第5篇:程序员入门知识

1、响应式编程

响应式编程是一种强调以数据流和变化传播为核心的异步编程模型。它主要关注数据流的变化和处理,通过使用观察者模式、函数式编程和流式操作等技术,实现对数据流的监听、转换和处理。

在响应式编程中,数据流被视为一系列连续变化的事件流,称为”流”(Stream)。这些流可以包含来自不同来源的数据,例如用户输入、网络请求、传感器数据等。编程者可以通过订阅这些流,以响应数据的变化和事件的发生。

以下是一个使用响应式编程的示例,结合 Java 代码进行说明:

假设有一个用户登录的功能,我们希望在用户登录成功后显示欢迎消息。

首先,引入响应式编程库,例如RxJava:

implementation ‘io.reactivex.rxjava3:rxjava:3.1.2’

然后,定义一个观察者(Observer)来处理用户登录的事件:

import io.reactivex.rxjava3.core.Observer;

import io.reactivex.rxjava3.disposables.Disposable;

public class LoginObserver implements Observer<User> {

    @Override

    public void onSubscribe(Disposable d) {

        // 当观察者订阅时执行的操作

    }

    @Override

    public void onNext(User user) {

        // 用户登录成功后执行的操作

        String welcomeMessage = “Welcome, ” + user.getUsername();

        System.out.println(welcomeMessage);

    }

    @Override

    public void onError(Throwable e) {

        // 处理错误的操作

    }

    @Override

    public void onComplete() {

        // 用户登录完成后执行的操作

    }

}

在上述代码中,LoginObserver实现了RxJava的Observer接口,用于处理登录事件。在onNext方法中,我们可以根据用户信息生成欢迎消息并进行相应的操作。

接下来,创建一个登录流(Login Flow),用于监听用户登录事件:

import io.reactivex.rxjava3.core.Flowable;

public class LoginFlow {

    private Flowable<User> loginFlow;

    public LoginFlow() {

        // 创建登录流

        loginFlow = Flowable.create(emitter -> {

            // 模拟用户登录过程

            // …

            // 当用户登录成功后,发射用户信息

            User user = new User(“John Doe”);

            emitter.onNext(user);

            // 完成登录流

            emitter.onComplete();

        }, BackpressureStrategy.BUFFER);

    }

    public Flowable<User> getLoginFlow() {

        return loginFlow;

    }

}

在LoginFlow类中,我们创建了一个Flowable(可观察的数据流),用于处理用户登录事件。在登录流的创建过程中,我们可以模拟用户登录的过程,并在登录成功后通过emitter.onNext(user)发射用户信息,最后通过emitter.onComplete()完成登录流。

最后,使用这些组件进行用户登录的处理:

public static void main(String[] args) {

    LoginFlow loginFlow = new

 LoginFlow();

    Flowable<User> loginStream = loginFlow.getLoginFlow();

    // 订阅登录流并处理事件

    loginStream.subscribe(new LoginObserver());

}

在主函数中,我们创建了一个LoginFlow实例,并获取其登录流。然后,我们使用subscribe方法订阅登录流,并传入LoginObserver实例来处理登录事件。

通过上述代码,我们实现了一个简单的响应式编程示例。当用户成功登录后,将打印欢迎消息。这种方式可以将用户登录过程与欢迎消息的处理解耦,使代码更加清晰和可扩展。

需要注意的是,上述示例中使用了 RxJava 作为响应式编程库,但响应式编程并不仅限于 RxJava,还有其他类似的框架和库,例如 Reactor、Kotlin Flow 等,它们都提供了类似的功能和编程模型,但具体的实现细节可能有所不同。

总结来说,响应式编程通过数据流和事件传播的方式,将异步编程变得更加简洁和灵活,提供了处理异步操作的一种优雅的编程范式。

2、组合

组合编程(composition)是一种强调通过将简单的组件组合在一起来构建复杂功能的编程范式。在组合编程中,我们使用已有的组件来构建更大的组件,从而实现系统的功能。

组合编程的核心思想是将复杂的问题分解为更小的部分,然后使用组件将这些小部分组合在一起,形成更大的整体。这种分解和组合的方式使得代码更加模块化、可复用和易于维护。

以下是一个使用组合编程的示例,结合 Java 代码进行说明:

假设我们正在开发一个图形库,其中包含不同形状的图形(如矩形、圆形等),我们需要实现一个可以绘制多个形状的画布。

首先,我们定义一个Shape接口,表示图形对象,其中包含一个draw方法用于绘制图形:

public interface Shape {

    void draw();

}

然后,我们实现几个具体的形状类,例如Rectangle和Circle:

public class Rectangle implements Shape {

    @Override

    public void draw() {

        System.out.println(“Drawing a rectangle”);

    }

}

public class Circle implements Shape {

    @Override

    public void draw() {

        System.out.println(“Drawing a circle”);

    }

}

接下来,我们定义一个Canvas类,用于绘制多个形状。这里使用组合的方式将多个形状组合在一起:

import java.util.ArrayList;

import java.util.List;

public class Canvas implements Shape {

    private List<Shape> shapes;

    public Canvas() {

        shapes = new ArrayList<>();

    }

    public void addShape(Shape shape) {

        shapes.add(shape);

    }

    @Override

    public void draw() {

        System.out.println(“Drawing canvas:”);

        for (Shape shape : shapes) {

            shape.draw();

        }

    }

}

在Canvas类中,我们使用了一个List来存储多个形状对象。通过addShape方法,我们可以向画布中添加新的形状。在draw方法中,我们遍历所有形状,并调用它们的draw方法来实现绘制。

最后,我们可以使用以下代码进行测试:

public static void main(String[] args) {

    Canvas canvas = new Canvas();

    canvas.addShape(new Rectangle());

    canvas.addShape(new Circle());

    canvas.draw();

}

在主函数中,我们创建了一个Canvas对象,并向画布中添加了一个矩形和一个圆形。然后,调用draw方法来绘制整个画布,输出如下:

Drawing canvas:

Drawing a rectangle

Drawing a circle

通过上述示例,我们展示了组合编程的思想。通过将简单的形状组合在一起,我们可以构建出一个复杂的画布,并实现绘制多个形状的功能。这种方式使得代码具有良好的可组合性和

可扩展性,使得我们能够轻松地添加新的形状或修改画布的行为。

总结来说,组合编程是一种强调分解和组合的编程范式,通过将简单的组件组合在一起构建复杂的功能。它使代码更具模块化、可复用和可维护性,提供了一种有效的方式来构建大型的软件系统。

3、事件驱动编程

事件驱动编程(event-driven programming)是一种编程范式,它的核心思想是系统中的各个组件之间通过事件的触发和响应进行通信和交互。在事件驱动编程中,系统中的各个组件被设计成事件的消费者或生产者,它们通过发布和订阅事件的方式进行通信。

事件驱动编程通常涉及以下几个核心概念:

事件(Event):事件是系统中发生的特定动作或状态变化的表示。它可以是用户操作、传感器输入、网络消息等。事件可以携带相关的数据。

事件生产者(Event Producer):事件生产者是能够产生事件并将其发布到系统中的组件。它负责检测和响应特定的条件,然后触发相应的事件。

事件消费者(Event Consumer):事件消费者订阅并接收事件,然后根据事件的类型和数据执行相应的操作或逻辑。它可以是系统中的其他组件、回调函数、观察者等。

事件处理器(Event Handler):事件处理器是与特定类型的事件相关联的代码块或函数。当事件发生时,相应的事件处理器会被调用来处理事件。

下面是一个使用事件驱动编程的简单示例,结合 Java 代码进行说明:

假设我们正在开发一个简单的图形界面程序,其中包含一个按钮和一个文本框。当用户点击按钮时,文本框会显示相应的消息。

首先,我们定义一个按钮类Button,它作为事件生产者,负责发布按钮点击事件:

import java.util.ArrayList;

import java.util.List;

public class Button {

    private List<ActionListener> listeners;

    public Button() {

        listeners = new ArrayList<>();

    }

    public void addActionListener(ActionListener listener) {

        listeners.add(listener);

    }

    public void click() {

        System.out.println(“Button clicked”);

        // 触发按钮点击事件

        for (ActionListener listener : listeners) {

            listener.onActionPerformed(new ActionEvent(this));

        }

    }

}

然后,我们定义一个文本框类TextBox,它作为事件消费者,实现了ActionListener接口,并订阅了按钮点击事件:

public class TextBox implements ActionListener {

    @Override

    public void onActionPerformed(ActionEvent event) {

        System.out.println(“Text box updated: ” + event.getSource());

    }

}

在主函数中,我们创建了一个按钮对象和一个文本框对象,并将文本框注册为按钮的事件监听器:

public static void main(String[] args) {

    Button button = new Button();

    TextBox textBox = new TextBox();

    button.addActionListener(textBox);

    // 模拟用户点击按钮

    button.click();

}

运行以上代码,输出结果为:

Button clicked

Text box updated: Button@2c8d66b2

在这个示例中,按钮对象作为事件生产者,

通过调用click()方法触发按钮点击事件。文本框对象作为事件消费者,实现了ActionListener接口,在事件发生时会被调用执行相应的操作。

事件驱动编程可以使系统更加灵活、响应快速,并且各个组件之间解耦,降低了组件之间的直接依赖关系。它适用于构建交互式和响应式的应用程序,特别是图形用户界面(GUI)和网络应用程序等场景。

第6篇:程序员入门知识

几种常用压缩算法的理解

RLE 算法的机制

接下来就让我们正式看一下文件的压缩机制。首先让我们来尝试对 AAAAAABBCDDEEEEEF 这 17 个半角字符的文件(文本文件)进行压缩。虽然这些文字没有什么实际意义,但是很适合用来描述 RLE 的压缩机制。

由于半角字符(其实就是英文字符)是作为 1 个字节保存在文件中的,所以上述的文件的大小就是 17 字节。如图

那么,如何才能压缩该文件呢?大家不妨也考虑一下,只要是能够使文件小于 17 字节,我们可以使用任何压缩算法。

最显而易见的一种压缩方式我觉得你已经想到了,就是把相同的字符去重化,也就是 字符 * 重复次数 的方式进行压缩。所以上面文件压缩后就会变成下面这样

从图中我们可以看出,AAAAAABBCDDEEEEEF 的17个字符成功被压缩成了 A6B2C1D2E5F1 的12个字符,也就是 12 / 17 = 70%,压缩比为 70%,压缩成功了。

像这样,把文件内容用 数据 * 重复次数 的形式来表示的压缩方法成为 RLE(Run Length Encoding, 行程长度编码) 算法。RLE 算法是一种很好的压缩方法,经常用于压缩传真的图像等。因为图像文件的本质也是字节数据的集合体,所以可以用 RLE 算法进行压缩

哈夫曼算法和莫尔斯编码

下面我们来介绍另外一种压缩算法,即哈夫曼算法。在了解哈夫曼算法之前,你必须舍弃半角英文数字的1个字符是1个字节(8位)的数据。下面我们就来认识一下哈夫曼算法的基本思想。

文本文件是由不同类型的字符组合而成的,而且不同字符出现的次数也是不一样的。例如,在某个文本文件中,A 出现了 100次左右,Q仅仅用到了 3 次,类似这样的情况很常见。哈夫曼算法的关键就在于 多次出现的数据用小于 8 位的字节数表示,不常用的数据则可以使用超过 8 位的字节数表示。A 和 Q 都用 8 位来表示时,原文件的大小就是 100次 * 8 位 + 3次 * 8 位 = 824位,假设 A 用 2 位,Q 用 10 位来表示就是 2 * 100 + 3 * 10 = 230 位。

不过要注意一点,最终磁盘的存储都是以8位为一个字节来保存文件的。

哈夫曼算法比较复杂,在深入了解之前我们先吃点甜品,了解一下 莫尔斯编码,你一定看过美剧或者战争片的电影,在战争中的通信经常采用莫尔斯编码来传递信息,例如下面

接下来我们来讲解一下莫尔斯编码,下面是莫尔斯编码的示例,大家把 1 看作是短点(嘀),把 11 看作是长点(嗒)即可。

莫尔斯编码一般把文本中出现最高频率的字符用短编码 来表示。如表所示,假如表示短点的位是 1,表示长点的位是 11 的话,那么 E(嘀)这一数据的字符就可以用 1 来表示,C(滴答滴答)就可以用 9 位的 110101101来表示。在实际的莫尔斯编码中,如果短点的长度是 1 ,长点的长度就是 3,短点和长点的间隔就是1。这里的长度指的就是声音的长度。比如我们想用上面的 AAAAAABBCDDEEEEEF 例子来用莫尔斯编码重写,在莫尔斯曼编码中,各个字符之间需要加入表示时间间隔的符号。这里我们用 00 加以区分。

所以,AAAAAABBCDDEEEEEF 这个文本就变为了 A * 6 次 + B * 2次 + C * 1次 + D * 2次 + E * 5次 + F * 1次 + 字符间隔 * 16 = 4 位 * 6次 + 8 位 * 2次 + 9 位 * 1 次 + 6位 * 2次 + 1位 * 5次 + 8 位 * 1次 + 2位 * 16次 = 106位 = 14字节。

所以使用莫尔斯电码的压缩比为 14 / 17 = 82%。效率并不太突出。

用二叉树实现哈夫曼算法

刚才已经提到,莫尔斯编码是根据日常文本中各字符的出现频率来决定表示各字符的编码数据长度的。不过,在该编码体系中,对 AAAAAABBCDDEEEEEF 这种文本来说并不是效率最高的。

下面我们来看一下哈夫曼算法。哈夫曼算法是指,为各压缩对象文件分别构造最佳的编码体系,并以该编码体系为基础来进行压缩。因此,用什么样的编码(哈夫曼编码)对数据进行分割,就要由各个文件而定。用哈夫曼算法压缩过的文件中,存储着哈夫曼编码信息和压缩过的数据。

接下来,我们在对 AAAAAABBCDDEEEEEF 中的 A – F 这些字符,按照出现频率高的字符用尽量少的位数编码来表示这一原则进行整理。按照出现频率从高到低的顺序整理后,结果如下,同时也列出了编码方案。

字符

出现频率

编码(方案)

位数

A

6

0

1

E

5

1

1

B

2

10

2

D

2

11

2

C

1

100

3

F

1

101

3

在上表的编码方案中,随着出现频率的降低,字符编码信息的数据位数也在逐渐增加,从最开始的 1位、2位依次增加到3位。不过这个编码体系是存在问题的,你不知道100这个3位的编码,它的意思是用 1、0、0这三个编码来表示 E、A、A 呢?还是用10、0来表示 B、A 呢?还是用100来表示 C 呢。

而在哈夫曼算法中,通过借助哈夫曼树的构造编码体系,即使在不使用字符区分符号的情况下,也可以构建能够明确进行区分的编码体系。不过哈夫曼树的算法要比较复杂,下面是一个哈夫曼树的构造过程。

自然界树的从根开始生叶的,而哈夫曼树则是叶生枝

哈夫曼树能够提升压缩比率

使用哈夫曼树之后,出现频率越高的数据所占用的位数越少,这也是哈夫曼树的核心思想。通过上图的步骤二可以看出,枝条连接数据时,我们是从出现频率较低的数据开始的。这就意味着出现频率低的数据到达根部的枝条也越多。而枝条越多则意味着编码的位数随之增加。

接下来我们来看一下哈夫曼树的压缩比率,用上图得到的数据表示 AAAAAABBCDDEEEEEF 为 000000000000 100100 110 101101 0101010101 111,40位 = 5 字节。压缩前的数据是 17 字节,压缩后的数据竟然达到了惊人的5 字节,也就是压缩比率 = 5 / 17 = 29% 如此高的压缩率,简直是太惊艳了。

大家可以参考一下,无论哪种类型的数据,都可以用哈夫曼树作为压缩算法

文件类型

压缩前

压缩后

压缩比率

文本文件

14862字节

4119字节

28%

图像文件

96062字节

9456字节

10%

EXE文件

24576字节

4652字节

19%

可逆压缩和非可逆压缩

最后,我们来看一下图像文件的数据形式。图像文件的使用目的通常是把图像数据输出到显示器、打印机等设备上。常用的图像格式有 : BMP、JPEG、TIFF、GIF 格式等。

·BMP : 是使用 Windows 自带的画笔来做成的一种图像形式

·JPEG:是数码相机等常用的一种图像数据形式

·TIFF: 是一种通过在文件中包含”标签”就能够快速显示出数据性质的图像形式

·GIF: 是由美国开发的一种数据形式,要求色数不超过 256个

图像文件可以使用前面介绍的 RLE 算法和哈夫曼算法,因为图像文件在多数情况下并不要求数据需要还原到和压缩之前一摸一样的状态,允许丢失一部分数据。我们把能还原到压缩前状态的压缩称为 可逆压缩,无法还原到压缩前状态的压缩称为非可逆压缩 。

一般来说,JPEG格式的文件是非可逆压缩,因此还原后有部分图像信息比较模糊。GIF 是可逆压缩

第7篇:程序员入门知识

先汇总,再拆分,如下:

1.计算机硬件:包括中央处理器(CPU)、内存、硬盘、输入设备(如键盘和鼠标)、输出设备(如显示器和打印机)等。

2.计算机软件:包括操作系统、应用程序和编程语言等。

3.数据表示:计算机使用二进制系统来表示和处理数据,包括数字、字符和图像等。

4.计算机网络:涉及计算机之间的通信和数据传输,包括局域网(LAN)、广域网(WAN)和互联网等。

5.操作系统:控制和管理计算机硬件和软件资源,提供用户界面和运行环境,例如Windows、macOS和Linux等。

6.数据结构与算法:涉及如何组织和管理数据,以及解决问题的方法和技术。

7.编程语言:用于编写计算机程序的语言,如C、C++、Java、Python等。

8.数据库系统:用于存储、管理和检索大量结构化数据的软件系统,如MySQL、Oracle和MongoDB等。

9.计算机安全:涉及保护计算机系统和数据的措施,包括防火墙、加密和身份验证等。

10.计算机体系结构:涉及计算机的组织和设计原理,包括指令集、处理器架构和存储器层次结构等。

一、计算机网络

应该学,以及面试中的高频问题:

·1、http协议,包括:封装格式,常见响应码,不同版本的区别,常见请求方法,存在哪些安全隐患,啥是无状态协议等。

·2、https协议:http 是明文传输,https 是加密安全的,需要知道 https 是如何加密的、数字证书如何形成,啥的对称加密、非对称加密。

·3、TCP协议:三次握手、四次挥手、如何保证可靠传输、流量控制、拥塞控制。

·4、UDP:这个大致了解即可,好像内容比较少

·5、DNS、ICMP、ARP、DHCP(我就不一个一个写了)

推荐书籍《计算机网络:自顶向下》《图解HTTP》

二、操作系统

操作系统也是一门非常重要的知识,在面试中也是问的非常多(当然,看公司,有些公司技术栈是 Java 的,可能问的比较少)。对于操作系统,要学的也挺多,例如:

啥是进程,啥是线程,他们的本质区别?我们运行一个程序时,数据放在哪里?代码放在哪里?咋就还要分堆和栈?线程切换时是上下文是啥意思?

虚拟地址是什么鬼东西?线程需要那么多种状态干啥子?什么是乐观锁、悲观锁?死锁是怎么造成的?解决死锁的策略有哪些?等等…

总结了下面一些比较核心,面试相对容易被考到的。

·1、进程的通信方式

·2、进程、线程究竟是由什么组成的?有哪些数据?

·3、内存管理,包括:虚拟内存(重点)、分页、分段、分页系统地址映射、内存置换算法(重点)。

·4、死锁的处理策略(死锁预防、死锁检测与恢复、死锁避免)

·5、进程调度算法

·6、磁盘寻道算法

推荐书籍:我看过的书籍是《操作系统—精髓与设计原理(第八版)》、《深入理解计算机操作系统(原书第三版)》。

三、数据库

课程:

黑马程序员 MySQL数据库入门到精通,从mysql安装到mysql高级、mysql优化全囊括_哔哩哔哩_bilibili​www.bilibili.com/video/BV1Kr4y1i7ru/?spm_id_from=333.999.0.0正在上传…重新上传取消

MySQL全套教程,详细的MySQL数据库优化,MySQL面试热点必考问题_哔哩哔哩_bilibili​www.bilibili.com/video/BV1zJ411M7TB/?spm_id_from=333.999.0.0正在上传…重新上传取消

SQL 教程_w3cschool​www.w3cschool.cn/sql/正在上传…重新上传取消

1. 基本概念和环境搭建

在开始学习MySQL之前,需要先了解数据库的基本概念,例如关系型数据库、表、列、行等。接着,安装MySQL数据库管理系统,并学会使用命令行或图形界面工具(如MySQL Workbench、phpMyAdmin等)来连接和管理数据库。

2. SQL语法学习

开始学习SQL(结构化查询语言),它是用于管理和操作数据库的标准语言。掌握基本的SQL语句,包括查询(SELECT)、插入(INSERT)、更新(UPDATE)、删除(DELETE)等操作。同时,了解如何使用WHERE子句、排序(ORDER BY)和聚合函数(如COUNT、SUM等)。

3. 高级查询和优化

深入学习高级查询技巧,包括多表连接(JOIN)、子查询、分组(GROUP BY)及分组筛选(HAVING)。在此阶段,应关注查询性能优化,如创建和使用索引、选择合适的连接类型等。

4. 数据库安全与权限管理

了解数据库安全的重要性,并学会设置用户、分配权限以及管理用户权限。掌握如何备份和恢复数据,以防止数据丢失或损坏。 ️

5. 存储过程、触发器和事务

学习编写存储过程(Stored Procedure)以实现更复杂的逻辑,了解触发器(Trigger)如何在特定事件发生时自动执行。同时,学习事务(Transaction)的概念和如何在MySQL中使用事务以确保数据的完整性和一致性。

6. 数据库设计与范式

掌握数据库设计的基本原则,学习范式(Normalization)的概念,并了解如何应用范式以优化数据库结构。

7. 结合编程语言

学会如何在常用编程语言(如Python、Java、PHP等)中连接和操作MySQL数据库,实现与应用程序的集成。

四、数据结构和算法

数据结构和算法可以帮助大家更好地理解如何解决实际问题,掌握这些知识能让你写出更高效的、更易于维护的代码。

学习数据结构和算法也可以帮助我们更好地理解如何解决实际问题,比如:

·文件系统:操作系统的文件系统是一个树状结构,通过学习树这种数据结构,你可以更好地理解文件系统的组织方式,从而实现文件的创建、删除、移动等操作。

·文本编辑器:文本编辑器需要高效地处理文本插入、删除等操作。通过学习链表和树这两种数据结构,你可以实现一个高效的文本编辑器。

·数据库管理:数据库系统需要对大量数据进行高效的查询、插入和删除操作。学习哈希表和树(如B树、B+树)等数据结构以及相应的算法,可以帮助你更好地实现数据库管理系统。

·路由器:网络路由器需要快速地找到目标IP地址对应的下一跳路由信息。学习字典树(Trie)等数据结构和查找算法,可以帮助你实现一个高效的路由器。

·电商网站的推荐系统:通过学习机器学习算法,如协同过滤、聚类分析等,你可以为电商网站实现一个智能的商品推荐系统。

·地图导航软件:学习图算法,如Dijkstra和A*算法,可以帮助你实现一个高效的地图导航软件,为用户提供最短路径规划。

·资源调度:在分布式系统或操作系统中,需要对任务进行合理的调度。通过学习堆、队列等数据结构以及贪心算法和动态规划算法,你可以实现一个高效的资源调度系统。

·数据压缩和解压缩:通过学习霍夫曼编码等贪心算法,你可以实现一个数据压缩和解压缩工具,以节省存储空间和传输带宽。

以上只是举例说一下,另外很多公司面试过程中都会考察求职者对数据结构和算法的掌握程度。多学习数据结构和算法,有助于提高面试通过率。

学习数据结构与算法的五个步骤:基础语法学习—>语法配套练习—>数据结构—>算法入门—>算法进阶

五、汇编

汇编这边,学习了汇编,能够更好着帮助我们知道计算机是如何处理程序代码的,例如寄存器和内存是如何使用的?循环、函数调用、数组是如何实现的?地址是怎么一回事?等等。

编译原理还是挺难得,但是有时间看看高校的课程也挺好的,学了以后可以知道我们的编译器如何分析我们的代码的,例如词法分析,语法分析,语义分析等等。当然,你未来可能会自己写个特定分析代码的编译器也不一定,这个时候,就更加需要学了。

第8篇:程序员入门知识

操作系统

操作系统环境

程序中包含着运行环境这一内容,可以说 运行环境 = 操作系统 + 硬件 ,操作系统又可以被称为软件,它是由一系列的指令组成的。我们不介绍操作系统,我们主要来介绍一下硬件的识别。

我们肯定都玩儿过游戏,你玩儿游戏前需要干什么?是不是需要先看一下自己的笔记本或者电脑是不是能肝的起游戏?下面是一个游戏的配置(怀念一下 wow)

图中的主要配置如下

·操作系统版本:说的就是应用程序运行在何种系统环境,现在市面上主要有三种操作系统环境,Windows 、Linux 和 Unix ,一般我们玩儿的大型游戏几乎都是在 Windows 上运行,可以说 Windows 是游戏的天堂。Windows 操作系统也会有区分,分为32位操作系统和64位操作系统,互不兼容。

·处理器:处理器指的就是 CPU,你的电脑的计算能力,通俗来讲就是每秒钟能处理的指令数,如果你的电脑觉得卡带不起来的话,很可能就是 CPU 的计算能力不足导致的。想要加深理解,请阅读博主的另一篇文章:程序员需要了解的硬核知识之CPU

·显卡:显卡承担图形的输出任务,因此又被称为图形处理器(Graphic Processing Unit,GPU),显卡也非常重要,比如我之前玩儿的剑灵开五档(其实就是图像变得更清晰)会卡,其实就是显卡显示不出来的原因。

·内存:内存即主存,就是你的应用程序在运行时能够动态分析指令的这部分存储空间,它的大小也能决定你电脑的运行速度,想要加深理解,请阅读博主的另一篇文章 程序员需要了解的硬核知识之内存

·存储空间:存储空间指的就是应用程序安装所占用的磁盘空间,由图中可知,此游戏的最低存储空间必须要大于 5GB,其实我们都会遗留很大一部分用来安装游戏。

从程序的运行环境这一角度来考量的话,CPU 的种类是特别重要的参数,为了使程序能够正常运行,必须满足 CPU 所需的最低配置。

CPU 只能解释其自身固有的语言。不同的 CPU 能解释的机器语言的种类也是不同的。机器语言的程序称为 本地代码(native code),程序员用 C 等高级语言编写的程序,仅仅是文本文件。文本文件(排除文字编码的问题)在任何环境下都能显示和编辑。我们称之为源代码。通过对源代码进行编译,就可以得到本地代码。下图反映了这个过程。

uploading-image-703074.png

Windows 操作系统克服了CPU以外的硬件差异

计算机的硬件并不仅仅是由 CPU 组成的,还包括用于存储程序指令的数据和内存,以及通过 I/O 连接的键盘、显示器、硬盘、打印机等外围设备。

在 WIndows 软件中,键盘输入、显示器输出等并不是直接向硬件发送指令。而是通过向 Windows 发送指令实现的。因此,程序员就不用注意内存和 I/O 地址的不同构成了。Windows 操作的是硬件而不是软件,软件通过操作 Windows 系统可以达到控制硬件的目的。

不同操作系统的 API 差异性

接下来我们看一下操作系统的种类。同样机型的计算机,可安装的操作系统类型也会有多种选择。例如:AT 兼容机除了可以安装 Windows 之外,还可以采用 Unix 系列的 Linux 以及 FreeBSD (也是一种Unix操作系统)等多个操作系统。当然,应用软件则必须根据不同的操作系统类型来专门开发。CPU 的类型不同,所对应机器的语言也不同,同样的道理,操作系统的类型不同,应用程序向操作系统传递指令的途径也不同。

应用程序向系统传递指令的途径称为 API(Application Programming Interface)。Windows 以及 Linux 操作系统的 API,提供了任何应用程序都可以利用的函数组合。因为不同操作系统的 API 是有差异的。所以,如何要将同样的应用程序移植到另外的操作系统,就必须要覆盖应用所用到的 API 部分。

键盘输入、鼠标输入、显示器输出、文件输入和输出等同外围设备进行交互的功能,都是通过 API 提供的。

这也就是为什么 Windows 应用程序不能直接移植到 Linux 操作系统上的原因,API 差异太大了。

在同类型的操作系统下,不论硬件如何,API 几乎相同。但是,由于不同种类 CPU 的机器语言不同,因此本地代码也不尽相同。

操作系统功能的历史

操作系统其实也是一种软件,任何新事物的出现肯定都有它的历史背景,那么操作系统也不是凭空出现的,肯定有它的历史背景。

在计算机尚不存在操作系统的年代,完全没有任何程序,人们通过各种按钮来控制计算机,这一过程非常麻烦。于是,有人开发出了仅具有加载和运行功能的监控程序,这就是操作系统的原型。通过事先启动监控程序,程序员可以根据需要将各种程序加载到内存中运行。虽然仍旧比较麻烦,但比起在没有任何程序的状态下进行开发,工作量得到了很大的缓解。

随着时代的发展,人们在利用监控程序编写程序的过程中发现很多程序都有公共的部分。例如,通过键盘进行文字输入,显示器进行数据展示等,如果每编写一个新的应用程序都需要相同的处理的话,那真是太浪费时间了。因此,基本的输入输出部分的程序就被追加到了监控程序中。初期的操作系统就是这样诞生了。

类似的想法可以共用,人们又发现有更多的应用程序可以追加到监控程序中,比如硬件控制程序,编程语言处理器(汇编、编译、解析)以及各种应用程序等,结果就形成了和现在差异不大的操作系统,也就是说,其实操作系统是多个程序的集合体。

Windows 操作系统的特征

Windows 操作系统是世界上用户数量最庞大的群体,作为 Windows 操作系统的资深用户,你都知道 Windows 操作系统有哪些特征吗?下面列举了一些 Windows 操作系统的特性

·Windows 操作系统有两个版本:32位和64位

·通过 API 函数集成来提供系统调用

·提供了采用图形用户界面的用户界面

·通过 WYSIWYG 实现打印输出,WYSIWYG 其实就是 What You See Is What You Get ,值得是显示器上显示的图形和文本都是可以原样输出到打印机打印的。

·提供多任务功能,即能够同时开启多个任务

·提供网络功能和数据库功能

·通过即插即用实现设备驱动的自设定

这些是对程序员来讲比较有意义的一些特征,下面针对这些特征来进行分别的介绍

32位操作系统

这里表示的32位操作系统表示的是处理效率最高的数据大小。Windows 处理数据的基本单位是 32 位。这与最一开始在 MS-DOS 等16位操作系统不同,因为在16位操作系统中处理32位数据需要两次,而32位操作系统只需要一次就能够处理32位的数据,所以一般在 windows 上的应用,它们的最高能够处理的数据都是 32 位的。

比如,用 C 语言来处理整数数据时,有8位的 char 类型,16位的short类型,以及32位的long类型三个选项,使用位数较大的 long 类型进行处理的话,增加的只是内存以及磁盘的开销,对性能影响不大。

现在市面上大部分都是64位操作系统了,64位操作系统也是如此。

通过 API 函数集来提供系统调用

Windows 是通过名为 API 的函数集来提供系统调用的。API是联系应用程序和操作系统之间的接口,全称叫做 Application Programming Interface,应用程序接口。

当前主流的32位版 Windows API 也称为 Win32 API,之所以这样命名,是需要和不同的操作系统进行区分,比如最一开始的 16 位版的 Win16 API,和后来流行的 Win64 API 。

API 通过多个 DLL 文件来提供,各个 API 的实体都是用 C 语言编写的函数。所以,在 C 语言环境下,使用 API 更加容易,比如 API 所用到的 MessageBox() 函数,就被保存在了 Windows 提供的 user32.dll 这个 DLL 文件中。

提供采用了 GUI 的用户界面

GUI(Graphical User Interface) 指得就是图形用户界面,通过点击显示器中的窗口以及图标等可视化的用户界面,举个例子:Linux 操作系统就有两个版本,一种是简洁版,直接通过命令行控制硬件,还有一种是可视化版,通过光标点击图形界面来控制硬件。

通过 WYSIWYG 实现打印输出

WYSIWYG 指的是显示器上输出的内容可以直接通过打印机打印输出。在 Windows 中,显示器和打印机被认作同等的图形输出设备处理的,该功能也为 WYSIWYG 提供了条件。

借助 WYSIWYG 功能,程序员可以轻松不少。最初,为了是现在显示器中显示和在打印机中打印,就必须分别编写各自的程序,而在 Windows 中,可以借助 WYSIWYG 基本上在一个程序中就可以做到显示和打印这两个功能了。

提供多任务功能

多任务指的就是同时能够运行多个应用程序的功能,Windows 是通过时钟分割技术来实现多任务功能的。时钟分割指的是短时间间隔内,多个程序切换运行的方式。在用户看来,就好像是多个程序在同时运行,其底层是 CPU 时间切片,这也是多线程多任务的核心。

提供网络功能和数据库功能

Windows 中,网络功能是作为标准功能提供的。数据库(数据库服务器)功能有时也会在后面追加。网络功能和数据库功能虽然并不是操作系统不可或缺的,但因为它们和操作系统很接近,所以被统称为中间件而不是应用。意思是处于操作系统和应用的中间层,操作系统和中间件组合在一起,称为系统软件。应用不仅可以利用操作系统,也可以利用中间件的功能。

相对于操作系统一旦安装就不能轻易更换,中间件可以根据需要进行更换,不过,对于大部分应用来说,更换中间件的话,会造成应用也随之更换,从这个角度来说,更å换中间件也不是那么容易。

通过即插即用实现设备驱动的自动设定

即插即用(Plug-and-Play)指的是新的设备连接(plug) 后就可以直接使用的机制,新设备连接计算机后,计算机就会自动安装和设定用来控制该设备的驱动程序

设备驱动是操作系统的一部分,提供了同硬件进行基本的输入输出的功能。键盘、鼠标、显示器、磁盘装置等,这些计算机中必备的硬件的设备驱动,一般都是随操作系统一起安装的。

有时 DLL 文件也会同设备驱动文件一起安装。这些 DLL 文件中存储着用来利用该新追加的硬件API,通过 API ,可以制作出运行该硬件的心应用。

汇编语言和本地代码

我们在之前的文章中探讨过,计算机 CPU 只能运行本地代码(机器语言)程序,用 C 语言等高级语言编写的代码,需要经过编译器编译后,转换为本地代码才能够被 CPU 解释执行。

但是本地代码的可读性非常差,所以需要使用一种能够直接读懂的语言来替换本地代码,那就是在各本地代码中,附带上表示其功能的英文缩写,比如在加法运算的本地代码加上add(addition) 的缩写、在比较运算符的本地代码中加上cmp(compare)的缩写等,这些通过缩写来表示具体本地代码指令的标志称为 助记符,使用助记符的语言称为汇编语言。这样,通过阅读汇编语言,也能够了解本地代码的含义了。

不过,即使是使用汇编语言编写的源代码,最终也必须要转换为本地代码才能够运行,负责做这项工作的程序称为编译器,转换的这个过程称为汇编。在将源代码转换为本地代码这个功能方面,汇编器和编译器是同样的。

用汇编语言编写的源代码和本地代码是一一对应的。因而,本地代码也可以反过来转换成汇编语言编写的代码。把本地代码转换为汇编代码的这一过程称为反汇编,执行反汇编的程序称为反汇编程序。

哪怕是 C 语言编写的源代码,编译后也会转换成特定 CPU 用的本地代码。而将其反汇编的话,就可以得到汇编语言的源代码,并对其内容进行调查。不过,本地代码变成 C 语言源代码的反编译,要比本地代码转换成汇编代码的反汇编要困难,这是因为,C 语言代码和本地代码不是一一对应的关系。

第9篇:程序员入门知识

CPU

还不了解 CPU 吗?现在就带你了解一下 CPU 是什么

CPU 的全称是 Central Processing Unit,它是你的电脑中最硬核的组件,这种说法一点不为过。CPU 是能够让你的计算机叫计算机的核心组件,但是它却不能代表你的电脑,CPU 与计算机的关系就相当于大脑和人的关系。CPU 的核心是从程序或应用程序获取指令并执行计算。此过程可以分为三个关键阶段:提取,解码和执行。CPU从系统的主存中提取指令,然后解码该指令的实际内容,然后再由 CPU 的相关部分执行该指令。

CPU 内部处理过程

下图展示了一般程序的运行流程(以 C 语言为例),可以说了解程序的运行流程是掌握程序运行机制的基础和前提。

在这个流程中,CPU 负责的就是解释和运行最终转换成机器语言的内容。

CPU 主要由两部分构成:控制单元 和 算术逻辑单元(ALU)

·控制单元:从内存中提取指令并解码执行

·算数逻辑单元(ALU):处理算数和逻辑运算

CPU 是计算机的心脏和大脑,它和内存都是由许多晶体管组成的电子部件。它接收数据输入,执行指令并处理信息。它与输入/输出(I / O)设备进行通信,这些设备向 CPU 发送数据和从 CPU 接收数据。

从功能来看,CPU 的内部由寄存器、控制器、运算器和时钟四部分组成,各部分之间通过电信号连通。

·寄存器是中央处理器内的组成部分。它们可以用来暂存指令、数据和地址。可以将其看作是内存的一种。根据种类的不同,一个 CPU 内部会有 20 – 100个寄存器。

·控制器负责把内存上的指令、数据读入寄存器,并根据指令的结果控制计算机

·运算器负责运算从内存中读入寄存器的数据

·时钟 负责发出 CPU 开始计时的时钟信号

CPU 是一系列寄存器的集合体

在 CPU 的四个结构中,我们程序员只需要了解寄存器就可以了,其余三个不用过多关注,为什么这么说?因为程序是把寄存器作为对象来描述的。

不同类型的 CPU ,其内部寄存器的种类,数量以及寄存器存储的数值范围都是不同的。不过,根据功能的不同,可以将寄存器划分为下面这几类

种类

功能

累加寄存器

存储运行的数据和运算后的数据。

标志寄存器

用于反应处理器的状态和运算结果的某些特征以及控制指令的执行。

程序计数器

程序计数器是用于存放下一条指令所在单元的地址的地方。

基址寄存器

存储数据内存的起始位置

变址寄存器

存储基址寄存器的相对地址

通用寄存器

存储任意数据

指令寄存器

储存正在被运行的指令,CPU内部使用,程序员无法对该寄存器进行读写

栈寄存器

存储栈区域的起始位置

其中程序计数器、累加寄存器、标志寄存器、指令寄存器和栈寄存器都只有一个,其他寄存器一般有多个。

下面就对各个寄存器进行说明

程序计数器

程序计数器(Program Counter)是用来存储下一条指令所在单元的地址。

程序执行时,PC的初值为程序第一条指令的地址,在顺序执行程序时,控制器首先按程序计数器所指出的指令地址从内存中取出一条指令,然后分析和执行该指令,同时将PC的值加1指向下一条要执行的指令。

我们还是以一个事例为准来详细的看一下程序计数器的执行过程

这是一段进行相加的操作,程序启动,在经过编译解析后会由操作系统把硬盘中的程序复制到内存中,示例中的程序是将 123 和 456 执行相加操作,并将结果输出到显示器上。

地址 0100 是程序运行的起始位置。Windows 等操作系统把程序从硬盘复制到内存后,会将程序计数器作为设定为起始位置 0100,然后执行程序,每执行一条指令后,程序计数器的数值会增加1(或者直接指向下一条指令的地址),然后,CPU 就会根据程序计数器的数值,从内存中读取命令并执行,也就是说,程序计数器控制着程序的流程。

条件分支和循环机制

高级语言中的条件控制流程主要分为三种:顺序执行、条件分支、循环判断三种,顺序执行是按照地址的内容顺序的执行指令。条件分支是根据条件执行任意地址的指令。循环是重复执行同一地址的指令。

·顺序执行的情况比较简单,每执行一条指令程序计数器的值就是 + 1。

·条件和循环分支会使程序计数器的值指向任意的地址,这样一来,程序便可以返回到上一个地址来重复执行同一个指令,或者跳转到任意指令。

下面以条件分支为例来说明程序的执行过程(循环也很相似)

程序的开始过程和顺序流程是一样的,CPU 从0100处开始执行命令,在0100和0101都是顺序执行,PC 的值顺序+1,执行到0102地址的指令时,判断0106寄存器的数值大于0,跳转(jump)到0104地址的指令,将数值输出到显示器中,然后结束程序,0103 的指令被跳过了,这就和我们程序中的 if() 判断是一样的,在不满足条件的情况下,指令会直接跳过。所以 PC 的执行过程也就没有直接+1,而是下一条指令的地址。

标志寄存器

条件和循环分支会使用到 jump(跳转指令),会根据当前的指令来判断是否跳转,上面我们提到了标志寄存器,无论当前累加寄存器的运算结果是正数、负数还是零,标志寄存器都会将其保存

CPU 在进行运算时,标志寄存器的数值会根据当前运算的结果自动设定,运算结果的正、负和零三种状态由标志寄存器的三个位表示。标志寄存器的第一个字节位、第二个字节位、第三个字节位各自的结果都为1时,分别代表着正数、零和负数。

CPU 的执行机制比较有意思,假设累加寄存器中存储的 XXX 和通用寄存器中存储的 YYY 做比较,执行比较的背后,CPU 的运算机制就会做减法运算。而无论减法运算的结果是正数、零还是负数,都会保存到标志寄存器中。结果为正表示 XXX 比 YYY 大,结果为零表示 XXX 和 YYY 相等,结果为负表示 XXX 比 YYY 小。程序比较的指令,实际上是在 CPU 内部做减法运算。

函数调用机制

接下来,我们继续介绍函数调用机制,哪怕是高级语言编写的程序,函数调用处理也是通过把程序计数器的值设定成函数的存储地址来实现的。函数执行跳转指令后,必须进行返回处理,单纯的指令跳转没有意义,下面是一个实现函数跳转的例子

图中将变量 a 和 b 分别赋值为 123 和 456 ,调用 MyFun(a,b) 方法,进行指令跳转。图中的地址是将 C 语言编译成机器语言后运行时的地址,由于1行 C 程序在编译后通常会变为多行机器语言,所以图中的地址是分散的。在执行完 MyFun(a,b)指令后,程序会返回到 MyFun(a,b) 的下一条指令,CPU 继续执行下面的指令。

函数的调用和返回很重要的两个指令是 call 和 return 指令,再将函数的入口地址设定到程序计数器之前,call 指令会把调用函数后要执行的指令地址存储在名为栈的主存内。函数处理完毕后,再通过函数的出口来执行 return 指令。return 指令的功能是把保存在栈中的地址设定到程序计数器。MyFun 函数在被调用之前,0154 地址保存在栈中,MyFun 函数处理完成后,会把 0154 的地址保存在程序计数器中。这个调用过程如下

在一些高级语言的条件或者循环语句中,函数调用的处理会转换成 call 指令,函数结束后的处理则会转换成 return 指令。

通过地址和索引实现数组

接下来我们看一下基址寄存器和变址寄存器,通过这两个寄存器,我们可以对主存上的特定区域进行划分,来实现类似数组的操作,首先,我们用十六进制数将计算机内存上的 00000000 – FFFFFFFF 的地址划分出来。那么,凡是该范围的内存地址,只要有一个 32 位的寄存器,便可查看全部地址。但如果想要想数组那样分割特定的内存区域以达到连续查看的目的的话,使用两个寄存器会更加方便。

例如,我们用两个寄存器(基址寄存器和变址寄存器)来表示内存的值

这种表示方式很类似数组的构造,数组是指同样长度的数据在内存中进行连续排列的数据构造。用数组名表示数组全部的值,通过索引来区分数组的各个数据元素,例如: a[0] – a[4],[]内的 0 – 4 就是数组的下标。

CPU 指令执行过程

几乎所有的冯·诺伊曼型计算机的CPU,其工作都可以分为5个阶段:取指令、指令译码、执行指令、访存取数、结果写回。

·取指令阶段是将内存中的指令读取到 CPU 中寄存器的过程,程序寄存器用于存储下一条指令所在的地址

·指令译码阶段,在取指令完成后,立马进入指令译码阶段,在指令译码阶段,指令译码器按照预定的指令格式,对取回的指令进行拆分和解释,识别区分出不同的指令类别以及各种获取操作数的方法。

·执行指令阶段,译码完成后,就需要执行这一条指令了,此阶段的任务是完成指令所规定的各种操作,具体实现指令的功能。

·访问取数阶段,根据指令的需要,有可能需要从内存中提取数据,此阶段的任务是:根据指令地址码,得到操作数在主存中的地址,并从主存中读取该操作数用于运算。

·结果写回阶段,作为最后一个阶段,结果写回(Write Back,WB)阶段把执行指令阶段的运行结果数据“写回”到某种存储形式:结果数据经常被写到CPU的内部寄存器中,以便被后续的指令快速地存取;

第10篇:程序员入门知识

编程是一种使用计算机语言来创建和控制软件的技能。编程可以用来开发各种应用程序,如网站,游戏,手机应用,人工智能等。要学习编程,需要掌握一些基础知识,例如:

·计算机语言:计算机语言是一种用来和计算机交流的符号系统,有不同的语法和规则。常见的计算机语言有Python,Java,C++等。

·变量:变量是一种用来存储和表示数据的标识符,可以是数字,文字,布尔值等。变量可以在程序中被赋值,修改和使用。

·数据类型:数据类型是指变量所存储的数据的种类,不同的数据类型有不同的特点和操作方法。常见的数据类型有整数,浮点数,字符串,列表等。

·运算符:运算符是一种用来对数据进行计算或逻辑判断的符号,有算术运算符,比较运算符,逻辑运算符等。

·控制结构:控制结构是一种用来控制程序执行流程的语句,有顺序结构,选择结构,循环结构等。

·函数:函数是一种将一段代码封装起来的模块,可以实现特定的功能,并且可以被重复调用。函数可以有参数和返回值。

·模块:模块是一种将多个函数或变量组织在一起的文件,可以被其他程序导入和使用。模块可以提高代码的复用性和可维护性。

通过这个程序员入门知识系列的学习,相信你已经掌握了一些基本的编程知识和技能。但是,编程是一个不断学习和进步的过程。希望你在未来的日子里,能够继续深入学习,不断提升自己的编程能力。

本文由用户 jining 上传分享,若有侵权,请联系我们(点这里联系)处理。如若转载,请注明出处:http://wenku.52yushi.com/wz760.html

(0)
jiningjining
上一篇 2023年12月22日
下一篇 2023年12月22日

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注