apue 最后两章都是通过一个完整的实例来解释一些 linux 功能,第20章就是通过一个数据库实例来解释文件锁的使用,

说实话,当时没兴趣,因为满页都是源码和解析,有点看不下去。但是再拾起来硬着头皮看的时候,发现这哪里是个小 demo,明明是个五脏俱全的 key-value 数据库嘛,

而且这个数据库,提供多进程并发读写的安全性保证(通过文件锁)、提供已删除节点循环再利用的能力、提供根据用户需求调节内部 hash 表参数的能力……

特别是它的索引与数据文件格式,采用字符串存储各种偏移量与数字,非常便于直接打开文件去做一些 “观察”,然后也能很方便地基于 SDK 构建查找、增删改数据库的工具……

这简直就是一个 linux 上的 “注册表” 工具!

先来看看这个数据库提供的 SDK 接口:

apue_db.h

 #ifndef __APUE_DB_H__
#define __APUE_DB_H__ typedef void* DBHANDLE; // db_store flags
#define DB_INSERT 1
#define DB_REPLACE 2
#define DB_STORE 3 #define IDXLEN_MIN 6
#define IDXLEN_MAX 1024 // single index can not exceed this size
#define DATLEN_MIN 2
#define DATLEN_MAX 1024 // single data can not exceed this size
#define NHASH_DEF 137 // default hash table size DBHANDLE db_open (char const* pathname, int oflag, .../*mode*/);
void db_close (DBHANDLE db);
int db_store (DBHANDLE db, const char *key, const char *data, int flag);
char* db_fetch (DBHANDLE db, char *key);
int db_delete (DBHANDLE db, const char *key);
void db_rewind (DBHANDLE db);
char *db_nextrec (DBHANDLE db, char *key);
void db_dump (DBHANDLE db); #endif

通过 db_open/db_close 打开关闭数据库,拿到DBHANDLE后就可以基于这个做操作了:

  • db_store 存储一个key,flag 指定覆盖方式:

    • DB_INSERT 当已经有这个key时会返回失败
    • DB_REPLACE 当没有这个key时会返回失败
    • DB_STORE 综合了上面两种情况,有时REPLACE,没有时INSERT
  • db_fetch 获取一个key对应的data
  • db_delete 删除一个key
  • db_rewind/db_nextrec 用来无序遍历数据库中的所有key
  • db_dump 是我自己加的一个接口,用来打印数据库内部状态,如索引哈希表、索引空闲节点列表,调试时使用

实现比较长,就不贴了,只给一个链接:apue_db.c

依据书中代码,纯手工输入,同时加入了习题中可以指定索引哈希表大小的能力

(编译时指定 HAS_HASHSIZE 宏,运行时通过环境变量 APUE_DB_HASH_SIZE 指定具体的哈希值,当然这个只在创建数据库时起作用,如果数据库已经存在,

将直接使用数据库中记录的哈希表大小值,如果没有环境变量,使用 NHASH_DEF 作为默认的哈希表尺寸,PS:尽量使用质数来保证哈希效果)

有了SDK,搞个数据库小工具就是小菜一碟了:

db.c

 #include "../apue.h"
#include "apue_db.h"
#include <fcntl.h>
#include <strings.h>
#include <errno.h> void Usage ()
{
printf ("Usage: db filename insert key data\n");
printf (" db filename query key\n");
printf (" db filename delete key\n");
printf (" db filename walk\n");
printf (" db filename dump\n");
exit (-);
} int main (int argc, char *argv[])
{
if (argc < )
Usage (); char *filename = argv[];
char *action = argv[];
char *key = NULL;
char *data = NULL;
if (strcasecmp (action, "walk") ==
|| strcasecmp (action, "dump") == )
{
// no extra param
}
else if (strcasecmp (action, "delete") ==
|| strcasecmp (action, "query") == )
{
if (argc < )
Usage (); key = argv[];
}
else if (strcasecmp (action, "insert") == )
{
if (argc < )
Usage (); key = argv[];
data = argv[];
}
else
{
Usage ();
} DBHANDLE db;
char *ptr = NULL;
#ifdef HAS_HASHSIZE
int hashsize = ;
ptr = getenv ("APUE_DB_HASH_SIZE");
if (ptr)
hashsize = atoi (ptr); if (hashsize <= )
hashsize = NHASH_DEF; if ((db = db_open (filename, O_RDWR | O_CREAT /*| O_TRUNC*/, FILE_MODE, hashsize)) == NULL)
#else
if ((db = db_open (filename, O_RDWR | O_CREAT /*| O_TRUNC*/, FILE_MODE)) == NULL)
#endif
err_sys ("db_open error"); int ret = ;
if (strcasecmp (action, "dump") == )
{
db_dump (db);
}
else if (strcasecmp (action, "walk") == )
{
//db_rewind ();
int n = ;
char buf[IDXLEN_MAX] = { };
while ((ptr = db_nextrec(db, buf)) != NULL)
{
n ++;
printf ("[%5d] %s --- %s\n", n, buf, ptr);
} printf ("walk done!\n");
}
else if (strcasecmp (action, "insert") == )
{
ret = db_store (db, key, data, DB_STORE);
if (ret < )
fprintf (stderr, "insert %s.%s failed, errno %d\n", key, data, errno);
else if (ret == )
fprintf (stderr, "insert %s.%s cover old data\n", key, data);
else
printf ("db %s '%s' code %d\n", action, key, ret);
}
else if (strcasecmp (action, "delete") == )
{
ret = db_delete (db, key);
if (ret < )
fprintf (stderr, "delete %s failed, errno %d\n", key, errno);
else
printf ("db %s '%s' code %d\n", action, key, ret);
}
else if (strcasecmp (action, "query") == )
{
ptr = db_fetch (db, key);
//printf ("%s === %s\n", key, ptr);
// only print data to allow assigned in shell script
printf ("%s\n", ptr == NULL ? "nil" : ptr);
}
else
Usage (); db_close (db);
return ret;
}

如果给定的参数不合法,会弹出 usage:

Usage: db filename insert key data
db filename query key
db filename delete key
db filename walk
db filename dump

其中:

  • insert 底层使用 db_store(..., DB_STORE); 来插入一条数据
  • query 底层使用 db_fetch 来查询一条数据
  • delete 底层使用 db_delete 来删除一条数据
  • walk 底层使用 db_nextrec 来遍历所有数据
  • dump 底层使用 db_dump 来查看数据库内部状态

好了,有了这个工具,我们就可以用脚本来开展测试工作了,为了验证这个数据库是“靠谱”的,我主要测试的是多进程并行写入、删除的能力。

在开始搞事情之前,我需要先准备一些测试数据,这个由一个awk脚本来完成:

gen.awk

 #! /bin/awk -f
BEGIN {
WORDNUM =
for (i = ; i <= WORDNUM; i++) {
printf("%s %s\n", randword(randint()), randword(randint()))
}
} # randint(n): return a random integer number which is >= and <= n
function randint(n) {
return int(n *rand()) +
} # randlet(): return a random letter, which maybe upper, lower or number.
function randlet() {
return substr("abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ0123456789", randint(), )
} # randword(LEN): return a rand word with a length of LEN
function randword(LEN) {
randw=""
for( j = ; j <= LEN; j++) {
randw=randw randlet()
}
return randw
}

执行这个脚本,得到测试数据文件:

$./gen.awk > demo
$ cat demo
s0jKl kEjwE4q3nNJugFJ0cgNaSgDpP3VS45x3Wum9kRF6SgmIReFmrNBcCecjyQHQqCrB5fC61hao1BV2x6XZ6KLtA4jZTEnhcAugAMMWE95NU7FnsYar4wz279jHoV
TmD516yvmt JB2NG30NDAaL5vpzp8DQX0rLRiVxjONIm64AN6UVc7uTLIIRpEq
BOhc40pKXhCbCu8 yo1vVWxtP4uJIbRFwNo6eZnxbOnzwrRvrcX0Xi1DcKsHcsaCgoqkbr1PWoqSdcG5jbwi4sMrlGf
Pw1o1fcg6kHIm ZmDlGY0OEsAsWYzRprJJcjxOZ0h9OBP5ORTqmvxU2XgS9lRXAfCuIzFHOLVt1eE
GalRFwb YpHtiHoEVu46gDh6X55JbQMr9T9mI5PIwCllwe1sy1lUkQn2EqJAE9tZ0bTpMNj7nVenVaEpJEBHai
2X staN43MMZxs8H3wITgkcuTKWGRxLE8pYpUTc2SUETv9igtejxiiM2B6x44ch9XGZjkXSMp2Rewv2WjRBHSVfZAmTAYz32h5l5PRKsdHqMMU1l
zW4dQI 6tnikssfMBLVJs4jbTXkFylvdEcVGMB1eYpdCvnvqBxcUuMPmDgSDuFVl726MkkgzMU5nFLoQrcM4Y8aTHRnMXilQTEaMe5aYdgJ5jEVnKMwRt9mQWE8sYKVSLHjtDJ9LwsGcN2IZ2Eznmn6ElzbY7
0Jde UQQFJQpluZKXybyfzyLrdIGYNn8Rs09tXwv7uMjlYRpe7C1frEB5hGHwuEu37bSCj0v5L1cxnYLabzF4t4loXtiV97O7XXg4qMK5IR2
yNSPh9ev0rnu0yU I3XVWF8h7to0
UivjVVXnSN60cre Grro31PCJDUx83CjbThVEksrvQHZcxnLwBa3RCpUS0Yhwm4OXisdZN0Jnj

这个文件每行都是一个 "key data",其中 key 为 1-20 长度的随机字符串,data 为 1-150 长度的随机字符串,共10条。

写入数据的测试脚本就可以这样写了:

testi.sh

 #! /bin/sh
OLD_IFS="$IFS"
IFS=" "
while read line
do
# echo $line
array=($line)
key=${array[]}
data=${array[]}
echo "$key -> $data"
./db yunh insert $key $data
done <demo IFS="$OLD_IFS"

执行这个脚本,结果如下:

$ ./testi.sh
s0jKl -> kEjwE4q3nNJugFJ0cgNaSgDpP3VS45x3Wum9kRF6SgmIReFmrNBcCecjyQHQqCrB5fC61hao1BV2x6XZ6KLtA4jZTEnhcAugAMMWE95NU7FnsYar4wz279jHoV
db insert 's0jKl' code 0
TmD516yvmt -> JB2NG30NDAaL5vpzp8DQX0rLRiVxjONIm64AN6UVc7uTLIIRpEq
db insert 'TmD516yvmt' code 0
BOhc40pKXhCbCu8 -> yo1vVWxtP4uJIbRFwNo6eZnxbOnzwrRvrcX0Xi1DcKsHcsaCgoqkbr1PWoqSdcG5jbwi4sMrlGf
db insert 'BOhc40pKXhCbCu8' code 0
Pw1o1fcg6kHIm -> ZmDlGY0OEsAsWYzRprJJcjxOZ0h9OBP5ORTqmvxU2XgS9lRXAfCuIzFHOLVt1eE
db insert 'Pw1o1fcg6kHIm' code 0
GalRFwb -> YpHtiHoEVu46gDh6X55JbQMr9T9mI5PIwCllwe1sy1lUkQn2EqJAE9tZ0bTpMNj7nVenVaEpJEBHai
db insert 'GalRFwb' code 0
2X -> staN43MMZxs8H3wITgkcuTKWGRxLE8pYpUTc2SUETv9igtejxiiM2B6x44ch9XGZjkXSMp2Rewv2WjRBHSVfZAmTAYz32h5l5PRKsdHqMMU1l
db insert '2X' code 0
zW4dQI -> 6tnikssfMBLVJs4jbTXkFylvdEcVGMB1eYpdCvnvqBxcUuMPmDgSDuFVl726MkkgzMU5nFLoQrcM4Y8aTHRnMXilQTEaMe5aYdgJ5jEVnKMwRt9mQWE8sYKVSLHjtDJ9LwsGcN2IZ2Eznmn6ElzbY7
db insert 'zW4dQI' code 0
0Jde -> UQQFJQpluZKXybyfzyLrdIGYNn8Rs09tXwv7uMjlYRpe7C1frEB5hGHwuEu37bSCj0v5L1cxnYLabzF4t4loXtiV97O7XXg4qMK5IR2
db insert '0Jde' code 0
yNSPh9ev0rnu0yU -> I3XVWF8h7to0
db insert 'yNSPh9ev0rnu0yU' code 0
UivjVVXnSN60cre -> Grro31PCJDUx83CjbThVEksrvQHZcxnLwBa3RCpUS0Yhwm4OXisdZN0Jnj
db insert 'UivjVVXnSN60cre' code 0

使用工具进行 walk 的话,可以看到都插入进去了:

$ ./db yunh walk
[ 1] s0jKl --- kEjwE4q3nNJugFJ0cgNaSgDpP3VS45x3Wum9kRF6SgmIReFmrNBcCecjyQHQqCrB5fC61hao1BV2x6XZ6KLtA4jZTEnhcAugAMMWE95NU7FnsYar4wz279jHoV
[ 2] TmD516yvmt --- JB2NG30NDAaL5vpzp8DQX0rLRiVxjONIm64AN6UVc7uTLIIRpEq
[ 3] BOhc40pKXhCbCu8 --- yo1vVWxtP4uJIbRFwNo6eZnxbOnzwrRvrcX0Xi1DcKsHcsaCgoqkbr1PWoqSdcG5jbwi4sMrlGf
[ 4] Pw1o1fcg6kHIm --- ZmDlGY0OEsAsWYzRprJJcjxOZ0h9OBP5ORTqmvxU2XgS9lRXAfCuIzFHOLVt1eE
[ 5] GalRFwb --- YpHtiHoEVu46gDh6X55JbQMr9T9mI5PIwCllwe1sy1lUkQn2EqJAE9tZ0bTpMNj7nVenVaEpJEBHai
[ 6] 2X --- staN43MMZxs8H3wITgkcuTKWGRxLE8pYpUTc2SUETv9igtejxiiM2B6x44ch9XGZjkXSMp2Rewv2WjRBHSVfZAmTAYz32h5l5PRKsdHqMMU1l
[ 7] zW4dQI --- 6tnikssfMBLVJs4jbTXkFylvdEcVGMB1eYpdCvnvqBxcUuMPmDgSDuFVl726MkkgzMU5nFLoQrcM4Y8aTHRnMXilQTEaMe5aYdgJ5jEVnKMwRt9mQWE8sYKVSLHjtDJ9LwsGcN2IZ2Eznmn6ElzbY7
[ 8] 0Jde --- UQQFJQpluZKXybyfzyLrdIGYNn8Rs09tXwv7uMjlYRpe7C1frEB5hGHwuEu37bSCj0v5L1cxnYLabzF4t4loXtiV97O7XXg4qMK5IR2
[ 9] yNSPh9ev0rnu0yU --- I3XVWF8h7to0
[ 10] UivjVVXnSN60cre --- Grro31PCJDUx83CjbThVEksrvQHZcxnLwBa3RCpUS0Yhwm4OXisdZN0Jnj
walk done!

可以观察到遍历的顺序其实就是元素的插入顺序。

使用工具进行 dump 的话,还可以看到 hash 表中的元素分配:

$ ./db yunh dump
hash nodes:
hash[0] nodes:
hash[1] nodes:
hash[2] nodes:
hash[3] nodes:
hash[4] nodes:
hash[5] nodes:
hash[6] nodes:
hash[7] nodes:
hash[8] nodes:
hash[9] nodes:
hash[10] nodes:
hash[11] nodes:
hash[12] nodes:
hash[13] nodes:
1 key 10, dat 52: TmD516yvmt
hash[14] nodes:
hash[15] nodes:
hash[16] nodes:
hash[17] nodes:
hash[18] nodes:
hash[19] nodes:
hash[20] nodes:
hash[21] nodes:
hash[22] nodes:
hash[23] nodes:
hash[24] nodes:
hash[25] nodes:
hash[26] nodes:
hash[27] nodes:
hash[28] nodes:
hash[29] nodes:
hash[30] nodes:
hash[31] nodes:
hash[32] nodes:
hash[33] nodes:
hash[34] nodes:
hash[35] nodes:
hash[36] nodes:
hash[37] nodes:
hash[38] nodes:
hash[39] nodes:
hash[40] nodes:
hash[41] nodes:
1 key 15, dat 13: yNSPh9ev0rnu0yU
hash[42] nodes:
hash[43] nodes:
hash[44] nodes:
hash[45] nodes:
hash[46] nodes:
hash[47] nodes:
hash[48] nodes:
hash[49] nodes:
hash[50] nodes:
hash[51] nodes:
1 key 6, dat 151: zW4dQI
hash[52] nodes:
hash[53] nodes:
hash[54] nodes:
hash[55] nodes:
hash[56] nodes:
hash[57] nodes:
hash[58] nodes:
hash[59] nodes:
hash[60] nodes:
hash[61] nodes:
1 key 15, dat 59: UivjVVXnSN60cre
hash[62] nodes:
hash[63] nodes:
hash[64] nodes:
1 key 7, dat 79: GalRFwb
hash[65] nodes:
hash[66] nodes:
hash[67] nodes:
hash[68] nodes:
hash[69] nodes:
hash[70] nodes:
hash[71] nodes:
hash[72] nodes:
hash[73] nodes:
hash[74] nodes:
hash[75] nodes:
hash[76] nodes:
hash[77] nodes:
hash[78] nodes:
1 key 4, dat 104: 0Jde
hash[79] nodes:
hash[80] nodes:
hash[81] nodes:
hash[82] nodes:
hash[83] nodes:
hash[84] nodes:
hash[85] nodes:
hash[86] nodes:
hash[87] nodes:
hash[88] nodes:
hash[89] nodes:
1 key 2, dat 110: 2X
hash[90] nodes:
hash[91] nodes:
hash[92] nodes:
hash[93] nodes:
hash[94] nodes:
1 key 15, dat 76: BOhc40pKXhCbCu8
hash[95] nodes:
hash[96] nodes:
hash[97] nodes:
hash[98] nodes:
hash[99] nodes:
hash[100] nodes:
hash[101] nodes:
hash[102] nodes:
hash[103] nodes:
hash[104] nodes:
hash[105] nodes:
hash[106] nodes:
hash[107] nodes:
hash[108] nodes:
hash[109] nodes:
hash[110] nodes:
hash[111] nodes:
hash[112] nodes:
hash[113] nodes:
hash[114] nodes:
hash[115] nodes:
1 key 13, dat 64: Pw1o1fcg6kHIm
hash[116] nodes:
hash[117] nodes:
hash[118] nodes:
hash[119] nodes:
hash[120] nodes:
hash[121] nodes:
hash[122] nodes:
hash[123] nodes:
hash[124] nodes:
hash[125] nodes:
hash[126] nodes:
hash[127] nodes:
hash[128] nodes:
hash[129] nodes:
hash[130] nodes:
hash[131] nodes:
hash[132] nodes:
hash[133] nodes:
hash[134] nodes:
hash[135] nodes:
hash[136] nodes:
1 key 5, dat 123: s0jKl
free nodes: total free: 0

可以看到默认的137个 hash 槽足够散列这10条记录,所以基本上一个 hash 槽最多只有一条记录,如果记录多的话,才有可能看到索引记录在 hash 槽中串成队列的情形。

另外,这里因为没有删除记录,也没有发生插入同名 key 的情况(此种场景也会删除记录),所以 freelist 没有任何元素。

如果有兴趣的话,其实也可以打开数据库的索引与数据文件,一探究竟:

$ cat yunh.idx
0 137 0 0 0 0 0 0 0 0 0 0 0 0 0 857
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 1043 0 0 0 0 0
0 0 0 0 995 0 0 0 0 0 0 0 0 0 1076 0
0 949 0 0 0 0 0 0 0 0 0 0 0 0 0 1020
0 0 0 0 0 0 0 0 0 0 974 0 0 0 0 885
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 918 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 835
0 12s0jKl:0:123
0 18TmD516yvmt:123:52
0 23BOhc40pKXhCbCu8:175:76
0 21Pw1o1fcg6kHIm:251:64
0 15GalRFwb:315:79
0 112X:394:110
0 15zW4dQI:504:151
0 130Jde:655:104
0 23yNSPh9ev0rnu0yU:759:13
0 23UivjVVXnSN60cre:772:59
$ cat yunh.dat
kEjwE4q3nNJugFJ0cgNaSgDpP3VS45x3Wum9kRF6SgmIReFmrNBcCecjyQHQqCrB5fC61hao1BV2x6XZ6KLtA4jZTEnhcAugAMMWE95NU7FnsYar4wz279jHoV
JB2NG30NDAaL5vpzp8DQX0rLRiVxjONIm64AN6UVc7uTLIIRpEq
yo1vVWxtP4uJIbRFwNo6eZnxbOnzwrRvrcX0Xi1DcKsHcsaCgoqkbr1PWoqSdcG5jbwi4sMrlGf
ZmDlGY0OEsAsWYzRprJJcjxOZ0h9OBP5ORTqmvxU2XgS9lRXAfCuIzFHOLVt1eE
YpHtiHoEVu46gDh6X55JbQMr9T9mI5PIwCllwe1sy1lUkQn2EqJAE9tZ0bTpMNj7nVenVaEpJEBHai
staN43MMZxs8H3wITgkcuTKWGRxLE8pYpUTc2SUETv9igtejxiiM2B6x44ch9XGZjkXSMp2Rewv2WjRBHSVfZAmTAYz32h5l5PRKsdHqMMU1l
6tnikssfMBLVJs4jbTXkFylvdEcVGMB1eYpdCvnvqBxcUuMPmDgSDuFVl726MkkgzMU5nFLoQrcM4Y8aTHRnMXilQTEaMe5aYdgJ5jEVnKMwRt9mQWE8sYKVSLHjtDJ9LwsGcN2IZ2Eznmn6ElzbY7
UQQFJQpluZKXybyfzyLrdIGYNn8Rs09tXwv7uMjlYRpe7C1frEB5hGHwuEu37bSCj0v5L1cxnYLabzF4t4loXtiV97O7XXg4qMK5IR2
I3XVWF8h7to0
Grro31PCJDUx83CjbThVEksrvQHZcxnLwBa3RCpUS0Yhwm4OXisdZN0Jnj

这里就不细说了,不过总的感觉,这个数据库还是比较“透明”的。

做多进程并发,这点儿数据当然不够了,我们修改gen.awk,让它生成1000条数据,

然后在插入脚本调用 db 命令的位置,使用后台运行来同时跑多个进程:

  ./db yunh insert $key $data & 

这样执行之后,再观察数据库中的数据,通过执行 walk 或 dump,可以看到确确实实有1000条数据插入了。

为了验证数据准确性,甚至我还写了一个校验脚本,这个脚本每次一行从测试数据中读出key与data,然后再去数据库中取数据做对比,

经过验证,一条不差!

感兴趣的可以参考一下这个脚本:

testq.sh

 #! /bin/sh
OLD_IFS="$IFS"
IFS=" "
n=
while read line
do
# echo $line
array=($line)
key=${array[]}
data=${array[]}
resp=`./db yunh query $key $data`
if [ "$resp" != "$data" ]; then
echo "query $key with $resp != $data"
n=$(($n+))
fi
done <demo
echo "total different: $n" IFS="$OLD_IFS"

最近在做 windows 到 linux 程序移植的工作,其中注册表访问的部分一直很头疼,因为写配置文件实在是又零散又不能保证并发问题,

于是自然而然想到,把这个SDK封装在一个跨平台访问配置信息的类中,用于模拟 windows 上访问注册表的机制,结果很完美。

(只是有一点需要注意,因为底层的文件锁只支持进程级别的互斥,同一进程内的多个线程之间,如果已经有锁,则再加锁并不等待,直接进入临界区,

所以这块还是需要注意访问“注册表”最好局限在该进程的一个线程中,特别是有写入的场景时)

最后总结一下,就是 apue 本身是个大宝库,看似简单的一个demo都蕴藏着巨大的潜力,作者不愧为一代巨匠,赞~~~

最新文章

  1. PHP字符串处理常用方法
  2. jqure获取单选按钮的值(比如性别)
  3. Anti-Grain Geometry 概述
  4. [转]SQL Server 和Oracle 数据类型对应
  5. 关于springMVC框架访问web-inf下的jsp文件
  6. [Powershell] 检查IIS设置
  7. 在QTableView中使用各种自定义委托
  8. vue.js自定义指令入门
  9. Xtext什么
  10. 【Alpha】——Sixth Scrum Meeting
  11. noip前集训
  12. 为自己搭建一个分布式 IM(即时通讯) 系统
  13. Netty的基本使用
  14. linux kernel内存碎片防治技术
  15. JAVA设计模式——代理(动态代理)
  16. Leading and Trailing(巧妙利用log解决次方问题)
  17. jps: command not found
  18. 数据分组、统计 case when then else end
  19. sql server中的go
  20. 使用 Nexus 搭建私服仓库时我犯的一个小错误

热门文章

  1. Layabox UI 笔记
  2. ubuntu1804自带的vim和vi都是用什么版本?
  3. aosp 制作 rom 刷机 添加厂家二进制驱动 及 出厂镜像
  4. oracle单机数据库搭建巨详细文档
  5. scrapy mid中间件一般处理方法
  6. 【原创】(五)Linux进程调度-CFS调度器
  7. PG归并排序算法详解
  8. video标签加载视频有声音却黑屏
  9. MATLAB神经网络(2) BP神经网络的非线性系统建模——非线性函数拟合
  10. h5微信中视频禁止全屏