summaryrefslogtreecommitdiffstats
path: root/windows/autohotkey/Source/Methods-Unicode.ahk
diff options
context:
space:
mode:
Diffstat (limited to 'windows/autohotkey/Source/Methods-Unicode.ahk')
-rw-r--r--windows/autohotkey/Source/Methods-Unicode.ahk12
1 files changed, 6 insertions, 6 deletions
diff --git a/windows/autohotkey/Source/Methods-Unicode.ahk b/windows/autohotkey/Source/Methods-Unicode.ahk
index a23da10..161e01c 100644
--- a/windows/autohotkey/Source/Methods-Unicode.ahk
+++ b/windows/autohotkey/Source/Methods-Unicode.ahk
@@ -8,21 +8,21 @@ Dieser basiert auf http://www.autohotkey.com/forum/topic32947.html
Der Aufruf von »SubStr(charCode,3)« geht davon aus, dass alle charCodes in Hex mit führendem „0x“ angegeben sind. Die abenteuerliche „^+u“-Konstruktion benötigt im Übrigen den Hex-Wert in Kleinschrift, was derzeit nicht bei den Zeichendefinitionen umgesetzt ist, daher zentral und weniger fehlerträchtig an dieser Stelle. Außerdem ein abschließend gesendetes Space, sonst bleibt der „eingetippte“ Unicode-Wert noch kurz sichtbar stehen, bevor er sich GTK-sei-dank in das gewünschte Zeichen verwandelt.
*/
-SendUnicodeChar(charCode) {
+SendUnicodeChar(charCode1, charCode2) {
global
- if !(CheckComp(charCode) and DeadCompose)
+ if !(CheckComp(charCode2) and DeadCompose)
IfWinActive,ahk_class gdkWindowToplevel
{
- StringLower,charCode,charCode
- send % "^+u" . SubStr(charCode,3) . " "
+ StringLower,charCode1,charCode1
+ send % "^+u" . SubStr(charCode1,3) . " "
} else {
VarSetCapacity(ki,28*2,0)
EncodeInteger(&ki+0,1)
- EncodeInteger(&ki+6,charCode)
+ EncodeInteger(&ki+6,charCode1)
EncodeInteger(&ki+8,4)
EncodeInteger(&ki+28,1)
- EncodeInteger(&ki+34,charCode)
+ EncodeInteger(&ki+34,charCode1)
EncodeInteger(&ki+36,4|2)
DllCall("SendInput","UInt",2,"UInt",&ki,"Int",28)
}