Hello,<br><br>While playing with scala programming language I've come to a HashMap implementation<br>that appears to be faster than current java.util.HashMap, also with a lower memory footprint.<br><br>Alex Miller advised me to post about it in this maillist.<br>
<br>I've put current implementation (both scala and java) and some benchmark results at github:<br>
<a href="http://github.com/alex14n/CompactHashMap" target="_blank">http://github.com/alex14n/CompactHashMap</a><br><br>Current java version implements most of the external HashMap behaviour<br>inluding serialization, but does not throw ConcurrentModificationException<br>
and does not implement internal methods that can be requeired for some subclasses.<br><br>Main trick is in storing all data in 2 arrays without any HashEntry objects.<br>

One is array of Objects with keys and values, another in a complex array of indices.<br>

<br>Index array has 2 parts. First part contains hashcode-to-index mappings,<br>second part is index-to-index mapping for elements with the same hashcode.<br>The rest bits are used for:<br>1. 'Deleted' flag to mark empty spots after key removal<br>
(other bits part of such values is used as deleted-linked-list indices)<br>2. 'End-of-list' flag allowing not to access next index if this element is last.<br>3. Some bits of hashcode used to compare with hashcode of the key we are looking for.<br>
<br>Finding an existing value for a key has approximately the same speed as the currrent<br>HashMap implementation. It is:<br>1. Computing element hashcode,<br>2. Accessing array to get index/address for this hashcode<br>
3a. Current HashMap access HashEntry object with key/hashcode/value/next properties<br>4a. In my implementation hashcode and next are packed in index array bits,<br>key and value are stored in adjacent cells of the second array.<br>
<br>When looking for missing key my implementation can be twice faster in some situations,<br>since it's only one random memory access (element index array). If it's empty,<br>or its hashcode bits are not equal to hashcode bits of the key being searched,<br>
and it's `end-of-list` bit is set - it is enough to stop searching. Current HashMap<br>needs 2 random memory reads: (1) array cell with address and (2) HashEntry at that address.<br><br>Insertion of a new key does not require any memory allocation (new HashEntry object)<br>
since all arrays are pre-allocated except for resize operation. Resize consists of<br>Arrays.copyOf to a twice large array and almost sequental rehashing - reading one array<br>and writing it to either the same index or with `1` in highest bit.<br>
<br>When adding several key/values they are sequentally written to key/values array,<br>and sequental memory read is faster and more cache-friendly.<br><br>Having 2 arrays instead of a lot of HashEntry objects is more garbage collector<br>
friendly and has significantly lower memory footprint.<br><br>Iteration over elements is a sequental array read which is faster.<br>To clone such HashMap we only need to clone 2 arrays with is also much faster.<br><br>Elements order is preserved even after resize, only when some key is removed<br>
it leaves an empty 'hole' that will be filled after next key insertion. Thus iteration<br>order is more predictable and I think it's possible not to throw ConcurrentModificationException<br>in most situations. Iterator needs only 1 parameter - array index - and even resize<br>
does not break iteration order.<br><br>But there can be problems. For example if we iterated over some key<br>that was deleted after that and then inserted again into higher array index,<br>it can eventually came up second time into iterator. But if we save highest<br>
non-empty index that was at iteration start, and monitor insert/delete<br>operations (possible holes) in indices we've not iterated over yet,<br>we will not need to throw ConcurrentModificationException in most cases.<br>
<br>I've done some benchmarks that proves my assumptions:<br>* Reading existing key-value mapping has the same speed,<br>* Adding new mapping and looking for missing key is significantly faster.<br><br>But there can be some problems in my testing strategy<br>
or benchmark can be somehow biased, so it's better to retest it<br>with some independent benchmarks.<br><br>Hope it will help to make java collections faster since such approach<br>(preallocated arrays instead of ...Entry objects) can be used to speedup<br>
other collections. In my scala version both HashMap and HashSet<br>are implemented this way. It also stores primitive types like int<br>in primitive arrays which saves a lot of memory. But on one hand<br>scala has built-in boxed arrays, and on the other hand such array boxing<br>
is slow. It also has to store keys and values in different arrays,<br>which gives extra random memory read and thus slower -<br>when keys and values are in adjacent cells of the same array<br>value will usually be pre-fetched when key is read.<br>
<br>Best,<br>Alex Yakovlev<br>