大数据-Map笔记

简介: set底层是默认value的mapMap的常用方法//介绍Map接口的方法Map map = new HashMap<>();//1.增加//V put(K key,V value) 增加一个键值对//关于返回值,如果当前的key之前没有添加过,返回null.

set底层是默认value的map

Map的常用方法

//介绍Map接口的方法

Map map = new HashMap<>();

//1.增加

//V put(K key,V value) 增加一个键值对

//关于返回值,如果当前的key之前没有添加过,返回null.如果当前的key之前已经存在了,这里返回之前的值

//void putAll(Map<? extends K,? extends V> map) 增加多个

//2.删除

//V remove(Object key) 根据key删除元素

//返回值就是被删掉的值

//void clear() 删除全部 != null

//3.获取

//V get(Object key) 根据key查找元素

//int size() 获取键值对的个数

//Set keySet() 遍历方法一

//Set> entrySet() 遍历方法二

//4.常用的判断

//boolean isEmpty() //空map!=null

//boolean containsKey(K key) 是否包含当前的key

//boolean containsValue(V value) 是否包含当前的value

一、HashMap

​ 底层是哈希表,线程不安全

哈希表结构

2.HashMap与HashTable区别

​ 1.HashTable是线程安全的

​ 2.HashTable的key不能为空

二、TreeMap

​ 底层是二叉树,线程不安全

/*

  • TreeMap的注意点:
  • 1.什么类型的数据类型可以作为key?
  • a:实现了Comparable接口的compareTo()方法 b:实现了Comparator接口的compare()方法
  • 可以的代表:String,包装类,自定义的实现了要求的类
  • 不可以的代表:数组,ArrayList,LinkedList(如果给他们建立的比较器也可以比较,但是不建议使用)

*

  • 2.元素可不可以作为key,跟元素内部的成员有没有关系
  • 元素可不可以作为key,跟元素内部的成员有没有关系

*/

public class Demo5 {

public static void main(String[] args) {

TreeMap map = new TreeMap<>();

//如果没有重写compareTo或者compare方法,put内部无法调用元素的这两个方法.所以会报错

map.put(new Dog(), "haha");

}

}

class Dog implements Comparable{

//2.元素可不可以作为key,跟元素内部的成员有没有关系

Object object;

@Override

public int compareTo(Dog o) {

// TODO Auto-generated method stub

return 0;

}

}


# 可变参数

public static void main(String[] args) {

sum(2, 3);//值传递

//址传递

int[] arr = {3,4,5};

sum(arr);

//可变参数

//可变参数的特点

//1.给可变参数传值的实参可以直接写,个数不限制,内部会自动的将他们放入可变数组中.

sum1(5,6,7,8,9,3,3,4);

//2.当包括可变参数在内有多个参数时,可变参数必须放在最后面,并且一个方法中最多只能有一个可变参数

sum2(6,3);

//3.当可变参数的方法与固定参数的方法是重载关系时,调用的顺序,固定参数的优先于可变参数的.

sum3(2,3);

}

//求两个数的和

//值传递

public static int sum(int a,int b) {

return a+b;

}

//址传递

public static int sum(int[] a) {

int sum = 0;

for (int i = 0; i < a.length; i++) {

sum+=a[i];

}

return sum;

}

//通过可变参数

//构成:数据类型+... 实际上就是数据类型[] 即:int[]

public static int sum1(int... a) {

int sum = 0;

for (int i = 0; i < a.length; i++) {

sum+=a[i];

}

return sum;

}

//2.当包括可变参数在内有多个参数时,可变参数必须放在最后面,并且一个方法中最多只能有一个可变参数

public static void sum2(float b,int... a) {

int sum = 0;

for (int i = 0; i < a.length; i++) {

sum+=a[i];

}

System.out.println(sum);

}

//3.当可变参数的方法与固定参数的方法是重载关系时,调用的顺序,固定参数的优先于可变参数的.

public static int sum3(int a, int b) {

System.out.println("a");

int sum = 0;

return sum;

}

public static int sum3(int... a) {

System.out.println("b");

int sum = 0;

return sum;

}

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
4月前
|
存储 缓存 NoSQL
大数据 | HDFS 元数据持久化笔记
大数据 | HDFS 元数据持久化笔记
54 0
|
4月前
|
存储 分布式计算 大数据
大数据笔记 | HDFS 常用操作命令
大数据笔记 | HDFS 常用操作命令
114 0
|
4月前
|
大数据 Linux 网络安全
大数据笔记 | 无密钥登录操作步骤
大数据笔记 | 无密钥登录操作步骤
43 0
|
10月前
|
分布式计算 Hadoop 大数据
大数据 | Hadoop HA高可用搭建保姆级教程(大二学长的万字笔记)(下)
大数据 | Hadoop HA高可用搭建保姆级教程(大二学长的万字笔记)(下)
131 0
|
10月前
|
分布式计算 运维 Hadoop
大数据 | Hadoop HA高可用搭建保姆级教程(大二学长的万字笔记)(上)
大数据 | Hadoop HA高可用搭建保姆级教程(大二学长的万字笔记)(上)
283 0
|
存储 分布式计算 大数据
六、【计算】大数据Shuffle原理与实践(下) | 青训营笔记
六、【计算】大数据Shuffle原理与实践(下) | 青训营笔记
六、【计算】大数据Shuffle原理与实践(下) | 青训营笔记
|
SQL 大数据
【8-16大数据笔记】操作表DML相关语句
【8-16大数据笔记】操作表DML相关语句
【8-16大数据笔记】操作表DML相关语句
|
存储 分布式计算 Java
大数据 Shuffle 原理与实践|青训营笔记
本文包括:1.shuffle概述;2.spark中的shuffle算子的基本特性;3.spark中的shuffle的过程;4.push shuffle的原理与实现
127 0
大数据 Shuffle 原理与实践|青训营笔记
|
SQL 存储 分布式计算
大数据组件综合笔记(二)
Hadoop:Hadoop是一个分布式存储和计算框架,具有高可靠, 高扩展, 高容错的特点(数据副本和集群);由底层HDFS分布式文件系统负责存储,和MapReduce负责分布式计算,以及后续增加的yarn负责资源协调管理。
158 0
|
SQL 存储 分布式计算
大数据组件综合笔记(一)
Hadoop:Hadoop是一个分布式存储和计算框架,具有高可靠, 高扩展, 高容错的特点(数据副本和集群);由底层HDFS分布式文件系统负责存储,和MapReduce负责分布式计算,以及后续增加的yarn负责资源协调管理。
247 0

热门文章

最新文章